Alle paar Jahre grüßt das 11.-September-Murmeltier

18 Jahre nach den Anschlägen des 11. September gehört es schon fast zu den regelmäßigen Ritualen, dass es alle paar Jahre die Verschwörunsmythen-Community aufs Neue verkündet: Dieses Mal wäre nun wirklich, echt, ganz unzweifelhaft, eindeutig unwiderlegbar der Beweis erbracht, dass die Anschläge in Wirklichkeit gar keine Anschläge wären, sondern ein perfider Plan der amerikanischen Regierung, der CIA, des Mossad, der Uno, der Freimaurer, der Juden – oder eben von allen zusammen. Normalerweise kann man das alles getrost ignorieren, weil dabei nun wirklich nie irgendetwas Relevantes Neues herauskommt, und Quantenquark im engeren Sinne ist es auch nicht. Da ich dem 11. September aber im Verschwörungsmythen-Buch ein ganzes Kapitel gewidmet habe, möchte ich doch in der Art eines Online-Nachtrags auf die aktuelle Sau eingehen, die dazu durchs globale Dorf getrieben wird. Vorgehen werde ich dabei von der Frage, wer das verbreitet, über ein paar Hintergründe zu der Untersuchung, auf die sich die Meldungen beziehen und einige ganz grundsätzliche Fragen zu den Behauptungen, die in der Untersuchung aufgestellt werden, hin zu ein paar Schlaglichtern auf Details, die angeblich herausgefunden wurden. Das ganze 114seitige Werk auseinanderzunehmen, übersteigt sowohl meine Fachkompetenz in bauingenierwissenschaftlichen Detailfragen als auch meine verfügbare Freizeit, und es würde auch den Rahmen eines Blogartikels sprengen. Lang wird er trotzdem werden. Sollten Sie irgendwann das Gefühl haben, Sie hätten genug gelesen, steigen Sie jederzeit gerne aus – Sie verpassen keine Schlusspointe. Sollten Sie am Ende immer noch nicht genug haben, dann werden Sie sicherlich zu so ziemlich jedem der angesprochenen Themenbereiche detailliertere Analysen vor allem auf amerikanischen Seiten wie Metabunk finden. Dort werden in einer Forumsstruktur Informationen kollaborativ zusammengetragen, ausgewertet und diskutiert, was logischerweise weit über das hinausgeht, was ich als Einzelner an ein paar Abenden meiner Freizeit leisten kann.

Sensationsmeldungen von den üblichen Verdächtigen

„Die Sprengung“ titelt Daniele Ganser im Verschwörungsmythenblog Rubikon News und erklärt, „die ganze Geschichte zum Terroranschlag vom 11. September 2001“ müsse „neu geschrieben werden“. Das Problem mit Ganser ist, dass ihn gerade deutsche und schweizer Linke oft immer noch für einen seriösen Wissenschaftler halten. Der Grund ist offenbar, dass er einst in seiner Doktorarbeit öffentlich bekannte Informationen und Verschwörungsdenken in einer Weise zusammengerührt hat, die möglicherweise geeignet ist, gegen die NATO zu agitieren – wenn man bereit ist, den historischen Kontext der Bedrohung durch den Warschauer Pakt komplett zu ignorieren. Heute tritt Ganser auf Veranstaltungen des rechtsesoterischen Kopp-Verlags auf und veröffentlicht seine Artikel bei Rubikon News, wo sich auch Peter Frey (nicht der vom ZDF) verständnisvoll in die verletzte Seele des jungen Adolf Hitler einfühlen darf und zum Fazit gelangt, Hitler sei kein Unmensch gewesen, sondern ein Gebrochener. So ist es denn auch wenig verwunderlich, dass die gleiche Geschichte wie von Ganser auch von den russischen Auslandspropagandamedien RT Deutsch und Sputniknews verbreitet wird, wobei sie gelegentlich auch in Onlinemedien wie das Technologie-und-Vermischtes-Sammelsurium Telepolis und in die britische Boulevardpresse überschwappt. Als Quelle dieser neuen Erkenntnisse gibt eine Seite mit dem bezeichnenden Titel Grenzwissenschaft-aktuell eine Studie der University of Alaska Fairbanks (UAF) an.

Die Sensation: Ein „Entwurf“ für eine Veröffentlichung

Dass sich ausgerechnet die UAF an der Verbreitung von Verschwörungsmythen beteiligen soll, ist zumindest pikant: Diese Universität betreibt auch das Atmosphärenforschungszentrum HAARP, von dem unter anderem die Innsbrucker Professorin Claudia von Werlhof behauptet, es sei dazu geeignet, als Waffe gezielt Erdbeben in fernen Erdteilen auszulösen. Die UAF wird also selbst oft genug zur Zielscheibe derselben Szene, die sich jetzt auf eine Studie dieser Universität beruft. Es lohnt sich daher auf jeden Fall ein Blick auf diese Studie, die als „Entwurf“ von einer Unterseite der Universitätswebsite herunterzuladen ist. Sie trägt den Titel „Eine strukturelle Neubewertung des Einsturzes von World Trade Center 7“ und beschäftigt sich ausschließlich mit diesem kleineren Wolkenkratzer etwas abseits der Zwillingstürme. Zum World Trade Center 7 (WTC 7) hatte ich schon vor einigen Jahren einen Artikel im Skeptiker verfasst, der auch als Dreiteiler im GWUP-Blog veröffentlicht ist. Das Gebäude ist 2001 durch Brände eingestürzt, die beim Zusammenbruch der Zwillingstürme ausgebrochen waren. Genau diesen Zusammenhang zwischen den Bränden und dem Einsturz bestreitet die „Neubewertung“ aus Alaska.

Ein Autor im Ruhestand und Finanzierung aus der Schwurbelszene

Der Entwurf gibt drei Autoren von unterschiedlichen Institutionen (darunter einen außerordentlichen Professor der Technischen Universität Nanjing in China) an, was den Eindruck einer institutsübergreifenden Zusammenarbeit erweckt. Tatsächlich waren die beiden Koautoren zum Zeitpunkt ihrer Beteiligung jedoch Doktoranden des Hauptautors Leroy Hulsey an der UAF. Beide stammen aus China und sind  erst nach ihrem Bachelorabschluss in die USA gekommen, direkt an die UAF. Der Entwurf war für die beiden auch nicht Teil ihrer Doktorarbeiten, sondern allenfalls eine Nebentätigkeit: Einer hat über die Feuerbeständigkeit von Gipsplatten promoviert, der andere über die Überwachung von Schäden an Brücken. Ob ihr Beitrag zu dem Entwurf über eine reine Datencodiertätigkeit hinausgeht, bleibt also unklar. Hulsey ist an der UAF offiziell Dozent und betreut laut Homepage auch noch wissenschaftliche Arbeiten, befindet sich jedoch mit 78 Jahren schon weit im Ruhestandsalter. Es handelt sich bei dem Text also nicht um eine Veröffentlichung in einem wissenschaftlichen Journal oder um eine offizielle Stellungnahme der Universität, sondern um die Forschungsfreiheit eines Pensionärs, der aufgrund seiner früheren Arbeit noch die Einrichtungen der Universität dafür nutzen darf. Ähnlich wie bei emeritierten Professoren in Deutschland ist es in den USA nicht unüblich, dass solche Professoren keine Lehrverpflichtungen mehr haben, die Ressourcen der Universität aber noch für eigene Forschungen nutzen können, bei deren Themenauswahl ihnen in der Regel niemand mehr hineinredet. Angesichts der katastrophalen Finanznot dieser Universität dürfte das erst recht für Projekte gelten, die aus Drittmitteln finanziert werden. Im Fall der „Neubewertung“ stammen diese Drittmittel ausgerechnet von der Verschwörungsgläubigen-Organisation Architects & Engineers for 9/11 Truth, womit das Ergebnis der Untersuchung dann auch nicht mehr sonderlich überraschend ist. Natürlich ist der Ausgang einer wissenschaftlichen Untersuchung nicht vom Geldgeber abhängig, solange sie seriös durchgeführt und veröffentlicht wird, aber dieser Propagandaverein hätte seine  von besorgten Bürgern eingesammelten Spenden wohl kaum einem Wissenschaftler anvertraut, bei dem das Ergebnis der Untersuchung in Frage gestanden hätte.

Wie seine beiden Doktoranden ist Hulsey tatsächlich Bauingenieur. Es deutet jedoch nichts darauf hin, dass er irgendwelche Erfahrung im Bau oder der Untersuchung von Wolkenkratzern hätte: Seine Veröffentlichungsliste dreht sich, abgesehen von ein paar Arbeiten über Straßenbeläge, fast ausschließlich um die Konstruktion von Brücken unter subarktischen Bedingungen. Hulseys Arbeitsschwerpunkt bei eher horizontalen, frei tragenden Kontruktionen lässt sich in der „Neubewertung“ durchaus wiedererkennen: Mit großer Akribie wird die Modellierung einzelner tragender Teile in den vermutlich zuerst abgestürzten unteren Etagenböden beschrieben, und ihre Eigenschaften unter thermischer Belastung werden detailliert diskutiert. Wo es um die Statik des Gebäudes insgesamt geht, rezitiert er jedoch eher fahrig die Ergebnisse seiner Modellrechnung, ohne auf die Implikationen einzugehen oder auch nur ihre Plausibilität zu hinterfragen.

Der Wissensstand zu World Trade Center 7

Wie bereits erwähnt, geht es in der Studie ausschließlich um das Gebäude WTC 7. Es wurde am 11. September 2001 beim Einsturz des Nordturms schwer beschädigt und geriet in Brand. Nachdem die mit der Gesamtsituation überforderte Feuerwehr die Brände kaum bekämpfen konnte, wüteten diese über mehr als sechs Stunden, bis das Gebäude schließlich einstürzte. Dass Stahlkonstruktionen durch die Hitzeentwicklung bei längeren Bränden an Stabilität verlieren, war schon vor dem 11. September nichts Neues, einerseits weil Stahl bei Temperaturen über 600° weich wird, andererseits wegen der thermischen Ausdehnung von Bauteilen. Da so ein Hochhaus aber eben so unverrückbar stabil aussieht, ist das für viele Leute schwer zu verstehen, und die Behauptungen von Ganser & Co fallen auf fruchtbaren Boden. Die derzeit gründlichste Analyse, was in diesem Fall genau passiert sein dürfte, findet sich im Bericht der amerikanischen Standards- und Eichbehörde NIST aus dem Jahr 2008. Der dreiteilige, rund 920-seitige Bericht, an dem mehr als 100 Personen mitgearbeitet haben, stützt sich neben Bild- und Videoaufnahmen sowie Brandanalysen vor allem auf eine detaillierte Finite-Elemente-Simulation des gesamten Gebäudes. Bei einer solchen Simulation wird ein Bauteil oder ein ganzes Gebäude in eine Vielzahl fiktiver kleiner Einzelteile zerlegt, die sich durch einfache Kennzahlen wie Gewicht, Bruchfestigkeit und Elastizität beschreiben lassen. Diese notwendigen Vereinfachungen sind schwierig und niemals perfekt, weshalb schon im Titel des Abschlussberichts ausdrücklich von einem wahrscheinlichen Einsturzverlauf die Rede ist. Danach brachen durch thermische Ausdehnung vermutlich zuerst Deckenträger in den brennenden unteren Stockwerken aus ihren Halterungen, und durch die abstürzenden Decken verloren einzelne senkrechte Säulen im Gebäude ihre Stabilität. Daraufhin kollabierte zuerst der Gebäudekern und ein paar Sekunden später die Fassade. Etwas ausführlicher beschrieben ist das im entsprechenden Kapitel des Verschwörungsmythen-Buchs.

Jetzt also noch ein Versuch mit der gleichen Methode

Hulseys Studie kontrastiert sich in erster Linie mit dem NIST-Bericht und verfolgt das offensichtliche Ziel, diesen zu diskreditieren. Daneben vergleicht Hulsey seine Ergebnisse auch mit zwei weniger umfassenden Simulationen aus gegensätzlichen Gutachten zu einem Gerichtsverfahren aus dem Jahr 2013: Der Stromversorger Con Ed als Betreiber einer beim Einsturz zerstörten Transformatorstation unter dem Gebäude hatte gegen die Erbauer wegen vermeintlicher Baumängel geklagt. Beide Gutachten kamen zu abweichenden, aber im Grundsatz ähnlichen Ergebnissen wie das NIST, welche Deckenträger genau aus welchem Grund abgestürzt sind und den weiteren Einsturz ausgelöst haben. Hulsey nutzt ebenfalls Finite-Elemente-Simulationen und betont mehrfach, von gleichen Annahmen wie das NIST ausgegangen zu sein – er kommt aber zu ganz anderen Ergebnissen. Danach hätten weder die Etagenböden abstürzen noch deren Absturz den Einsturz der zentralen Gebäudesäulen auslösen sollen, und auch bei einem Einsturz dieser Säulen hätte nach Hulseys Simulation das Gebäude nicht in der beobachteten Form einstürzen dürfen. Hulsey schreibt, er hätte seine Berechnungen parallel mit zwei unterschiedlichen Simulationssoftwares vorgenommen, aber weitgehend gleiche Ergebnisse erhalten. Das ist nicht weiter überraschend: Die Hauptfehlerquelle bei Finite-Elemente-Berechnungen ist nicht die Simulation selbst, sondern die Modellierung der Eingangsparameter mit den unvermeidlichen Vereinfachungen. Bei identischer Modellierung sollten unterschiedliche Softwarepakete sehr ähnliche Ergebnisse liefern. Insgesamt ist die Methode jedoch mit hohen Unsicherheiten behaftet: Im Zusammenhang mit meiner Doktorarbeit hat ein sehr erfahrener Ingenieur solche Simulationen zur Deformation der relativ einfachen Aluminiumstruktur eines Detektorgerüsts unter seinem eigenen Gewicht ausgeführt. Dazu erinnere ich mich an Abweichungen von den später gemessenen Werten um rund ein Viertel. Da in solchen Softwarepaketen in der Regel zum Beispiel die Tragkraft eines Bauteils unabhängig von seiner Ausdehnung und seinem Gewicht definiert werden kann, ist es, wenn man nicht aufpasst, auch durchaus möglich, Modelle zu konstruieren, die grundlegenden Gesetzen der Physik widersprechen. Grundsätzlich gilt für die Finite-Elemente-Methode das einfache Prinzip jeder Simulationsrechnung: Shit-in – Shit-out. Das betrifft die NIST-Berechnung wie die anderen erwähnten Simulationen: Sie sind fehlerbehaftet und immer nur so gut wie ihre Annahmen.

Zumindest in Teilaspekten sollte Hulsey kompetent sein

Zur Qualität der Modellierung von Hulsey in ihren Details und im Vergleich zu den drei anderen Simulationen kann ich nichts sagen. Dazu fehlen mir nicht nur die Fachkompetenz und die Zeit, sondern auch die Detailinformationen, was er in seiner Modellierung eigentlich genau gemacht hat. Das grundsätzliche Problem der Konstruktion von Etagenböden und ihrer Träger erscheint mir jedoch durchaus Ähnlichkeiten zu Hulseys Fachgebiet, dem Brückenbau, zu haben. Man muss also davon ausgehen, dass er und seine Doktoranden grundsätzlich Ahnung hatten, was sie da taten. Der betreffende Teil der Arbeit ist im Text auch einigermaßen gut dokumentiert, wenngleich bei weitem nicht in dem Detailgrad wie im Bericht des NIST. Sofern er nicht bewusst manipuliert hat, sollten die Bewegungen der einzelnen Bauteile durch den Brand durch sein Modell also nicht völlig abwegig berechnet werden. Dasselbe gilt aber eben auch für die Simulationen der beiden Gutachterbüros aus dem Gerichtsverfahren und vor allem für die des NIST, das vor mehr als zehn Jahren zwar noch nicht die heutigen Rechner hatte, aber für Recherche und Modellierung auf wesentlich mehr Ressourcen zugreifen konnte. Hulseys Modellierung ist also nur eine weitere Berechnung, die von der Betrachtung der Modelle her im besten Fall halbwegs gleichwertig neben drei anderen stehen könnte. Auf dieser Detailebene ist ein Abgleich mit der Realität schwierig, weil es um zunächst kleine Verformungen tief im Inneren des Gebäudes geht, von denen keinerlei Aufnahmen existieren und deren Spuren beim endgültigen Einsturz und darauf folgenden Abriss zerstört wurden.

Die Interpretation der Ergebnisse unterstellt eine sehr wirre Verschwörung

Zu einer wesentlich aussagekräftigeren Einschätzung, wie realistisch Hulseys Berechnung ist, gelangt man, wenn man seine Ergebnisse für das Gesamtgebäude einschließlich seiner Schlussfolgerungen daraus ernst nimmt und sich überlegt, was das für die Realität bedeuten würde. Von einer Sprengung ist in diesen Schlussfolgerungen nicht ausdrücklich die Rede – eine solche kommt im gesamten Text überhaupt nicht explizit vor. Hulsey schreibt jedoch: „Das nahezu gleichzeitige Versagen aller Säulen ist das einzige Szenario, das wir gefunden haben, das in der Lage war, das beobachtete Verhalten zu produzieren.“ Dieses „beobachtete Verhalten“ identifiziert Hulsey als einen senkrechten Einsturz mit nahezu Fallgeschwindigkeit. Mit anderen Worten, Hulseys Modell stürzt nur dann senkrecht ein, wenn alle tragenden Säulen gleichzeitig versagen – wenn wie im NIST-Modell zunächst einzelne Säulen ausfallen, stürzt Hulseys Modell entweder gar nicht ein, oder es kippt zur Seite um.

Screenshot aus Hulseys Entwurf, Seite 102.

Für ein solches gleichzeitiges Versagen von 81 Säulen, von denen die dickeren rund 60 Zentimeter Durchmesser hatten, auf Höhe der unteren Stockwerke lässt sich aber nun tatsächlich schwerlich eine andere Erklärung finden als eine präzise gesteuerte Zündung von mindestens 81 einzelnen starken Sprengvorrichtungen. Das wertet Ganser somit als Beweis für eine Sprengung des Gebäudes. Damit unterstellt er der ominösen Macht, die die Sprengung vorgenommen haben soll, allerdings eine ziemlich seltsame Vorgehensweise. Um Sprengmechanismen an allen 81 Säulen anbringen zu können, hätte man im laufenden Betrieb mindestens ein vermietetes Stockwerk vollständig entkernen müssen. Da die äußeren Säulen Teil der Fassadenstruktur sind, wäre es zudem kaum möglich gewesen, Schneidladungen, die eine solche riesige Stahlsäule durchtrennen können, so anzubringen, dass sie nicht außen auf der Fassade zu sehen gewesen wären. Der riesige Aufwand wäre zudem völlig überflüssig gewesen. Bei Abbruchsprengungen strebt man nur deshalb häufig einen senkrechten Einsturz an, weil man Schäden in der Umgebung minimieren will. Am Nachmittag des 11. September waren jedoch alle Gebäude zumindest an der Südseite von WTC 7 wenigstens abbruchreif, wenn nicht schon eingestürzt. Um WTC 7 zum Einsturz zu bringen, hätte es völlig ausgereicht, einige Säulen an der Südseite des Gebäudes zu zerstören, um das Gebäude zumindest nach Hulseys Modell zu dieser Seite umkippen zu lassen, was weitaus eher der naiven Erwartung der meisten Menschen entsprochen hätte, zumal die Schäden durch den Einsturz der Zwillingstürme auch auf der Südseite waren. Stattdessen müsste Gansers ominöse Macht einen gigantischen zusätzlichen Aufwand getrieben haben, nur um eine Sprengung, die nicht als Sprengung erkannt werden sollte, genau wie eine Sprengung aussehen zu lassen. Das wäre jedoch nicht die einzige höchst seltsame Entscheidung dieser Dunkelmänner. Wie auf vielen Videos zu erkennen ist, stürzte das sogenannte östliche Penthaus, ein Dachaufbau für die Gebäudetechnik, rund sieben Sekunden vor dem Rest des Gebäudes ein – und damit lange vor den von Ganser behaupteten und von Hulseys zumindest unterstellten Sprengungen. In der NIST-Berechnung ist dies einfach eine Folge des Zusammenbrechens der ersten Säulen im Gebäudekern. Hulsey schreibt jedoch selbst, dass dieser Penthaus-Einsturz nach seinem Modell nur durch das Versagen von drei Säulen oberhalb des 45. Stockwerks zu erklären ist. Die Verschwörer hätten also wenige Sekunden vor der Sprengung aller 81 Säulen auf der Höhe eines der unteren Stockwerke schon einmal drei dieser Säulen auf der Höhe eines der obersten Stockwerke sprengen müssen. Wozu das hätte gut sein sollen, erklären weder Ganser noch Hulsey.  Man kann also entweder annehmen, dass im WTC 7 eine mächtige Verschwörung mit riesigem Aufwand völlig wirr irgendwelche sinnlosen Sprengungen vorgenommen hat – oder dass Hulseys Modell einfach die Statik des Gesamtgebäudes falsch wiedergibt.

Hulseys Modell beschreibt auch den Einsturz falsch

Will man Hulseys Berechnung ernst nehmen, dann muss man eine Verschwörung annehmen, die allerlei umständliche und überflüssige Handlungen vornimmt. Ein solches Überladen der vermeintlichen Abläufe mit immer neuen Wendungen, um die Widersprüche in der vorigen Version zu erklären, ist ein typisches Merkmal moderner Verschwörungsmythen. Es ist für sich genommen aber kein Beweis, dass Hulseys Modell nicht der Realität entspräche. Betrachtet man seine Ergebnisse jedoch genauer, dann finden sich eine ganze Anzahl unrealistischer Modellaussagen, vor allem bezogen auf das Gebäude als Ganzes.

Im oben eingefügten Ausschnitt aus Hulseys Entwurf kippt als Ergebnis des Ausfalls dreier Säulen im Inneren des Gebäudes der ganze obere Teil des Gebäudes um wie ein Dominostein. Selbst in dem Bereich, in dem sie mit dem noch stehenden Gebäudestumpf kollidiert, wird die kippende Struktur kaum deformiert. Direkt über den ausgefallenen Säulen ist das obere Stockwerke leicht durchgebogen, aber ansonsten bleibt der kippende Gebäudeteil im Fallen merkwürdig stabil. So verhalten sich einstürzende Gebäude dieser Größe normalerweise nicht. Man sieht zum Beispiel beim Einsturz des World-Trade-Center-Südturms WTC 2, dass der oberste Gebäudeteil zwar im ersten Moment in einem Stück kippt, sich aber schon bei einem sehr kleinen Winkel in seine Einzelteile auflöst und als 100.000 Tonnen schwere Trümmerwolke zu Boden stürzt.

Auf Metabunk sammelt Mick West unter anderem Informationen über Hulseys Berechnungen, auch mit der Unterstützung der anderen Forumsteilnehmer. Dazu hat West unter anderem die Folien aus einer Präsentation von Hulsey zur Vorstellung seines „Entwurfs“ vergrößert und als zweites Video zur Verfügung gestellt. Diese Präsentation ist interessant, weil sie nicht nur Animationen zu Hulseys Berechnungen enthält, sondern auch Ansichten, die im Entwurf selbst nicht vorkommen. In dieser Präsentation sieht man, dass die Gebäudestruktur in Hulseys kippender Simulation sogar bei weitaus größeren Neigungswinkeln noch vollkommen unbeeinträchtigt zu sein scheint:

Screenshot aus den Folien zu Hulseys Präsentation

WTC 7 verfügt also in Hulseys Berechnung über eine höchst erstaunliche innere Stabilität. Dass der Erdboden in der Berechnung nicht existiert, das Gebäude also im Boden versinken kann, ist für die eigentliche Fragestellung in der Tat unerheblich. Entscheidend ist jedoch die Frage: War das wirkliche WTC 7 auch so stabil? Die Antwort gibt Hulsey in seiner Präsentation unfreiwillig selbst. Mit einer Gegenüberstellung einer eigenen Animation zu einem Video vom 11. September will er offenbar zeigen, dass das abstürzende Gebäude in seiner Simulation ähnlich schnell fällt wie die abstürzende Fassade von WTC 7 im Video. Wozu das gut sein soll, erschließt sich mir nicht – niemand dürfte bezweifeln, dass er in seinen Berechnungen die korrekte Gravitationskonstante verwendet hat. In dem Video sieht man jedoch deutlich, wie sich während des Einsturzes von WTC 7 nicht nur die Dachkante, sondern auch die darunterliegenden Stockwerke in der Mitte der Nordfassade um mehrere Meter tiefer befinden als an den Seiten. Die Mitte der Gebäudefront beginnt Sekundenbruchteile früher abzustürzen als die Seiten und fällt daher auch schneller. Auf anderen Videos sieht man außerdem, dass die Fassade schon in den Sekunden vor dem Einsturz (und damit vor der von Hulsey unterstellten Sprengung) deutlich vor- und zurückschwankt und Fenster zerbrechen. Während das Gebäude also von außen noch weitgehend aussieht wie ein massives Objekt, hat es seine innere Stabilität längst verloren und die größeren Strukturelemente wie Fassadensäulen sind nur noch vergleichsweise locker miteinander verbunden, während sie unter ihrem eigenen Gewicht nebeneinander her in die Tiefe stürzen. In Hulseys Simulation bildet das Gebäude jedoch weiterhin einen kein bisschen deformierten monolithischen Block, der einfach wie ein Bauklotz nach unten wegsackt.

Screenshot aus den Folien zu Hulseys Präsentation

Was in der Simulation weiter unten passiert, wo dieser Bauklotz ja mit dem darunterliegenden Gebäudestumpf kollidieren muss, zeigt Hulsey vermutlich aus gutem Grund weder in seinem „Entwurf“ noch in der Präsentation.

Die von Hulsey selbst mit verächtlichem Stöhnen vorgeführten NIST-Simulationen entsprechen der auf Videos zu sehenden inneren Instabilität des einstürzenden Gebäudes weitaus realistischer, wenngleich die einzelnen Bewegungen der Fassade möglicherweise nicht in jedem Detail getroffen werden. Alle Details in einer Simulation zu reproduzieren, ist bei einem solchen chaotischen Prozess schlicht unmöglich – Hulseys Simulation ist jedoch nicht chaotisch, weil sich sein Gebäude beim Einsturz überhaupt nicht verformt. Obwohl Hulsey die eigentlichen Daten zu seiner Simulation nicht veröffentlicht hat, kann man also schon aus ihren Ergebnissen deutlich erkennen, dass sein simuliertes Gebäude eine unglaubliche Formstabilität hat, die das tatsächliche Gebäude nicht hatte. Die Ursache dieser Fehler zu finden, ist Hulseys Aufgabe. Bis dahin macht es jedoch genau diese Formstabilität unmöglich, aus Hulseys Simulation irgendwelche Schlussfolgerungen zu ziehen, aus dem Einsturz welcher Säulen sich ein Einsturz eines Gesamtgebäudes in welcher Form ergeben sollte. Mehr noch: Die unrealistische Formstabilität betrifft nicht die senkrechten Säulen des Gebäudes selbst, sondern vor allem die horizontalen Verbindungen zwischen diesen Säulen. Da diese horizontalen Verbindungen vor allem aus den Etagenböden mit ihren Trägern und Fußbodenelementen bestehen, muss man auch Hulseys Simulationen zur Stabilität dieser Bodenkonstruktionen und damit ihre Rolle beim Beginn des Einsturzes mit großem Zweifel betrachten. Anders ausgedrückt: Hulseys Berechnungen beschreiben ein fiktives Gebäude, das mit der am 11. September zu beobachtenden tatsächlichen Stabilität von WTC 7 nur wenig Gemeinsamkeiten hat. Somit ist es fraglich, ob man aus Hulseys Modell überhaupt irgendetwas über den Einsturz von WTC 7 lernen kann.

Das ist noch lange nicht alles

Diese grundlegenden Probleme in den Ergebnissen von Hulseys merkwürdiger Modellierung sind, unabhängig von der Methodik durch die sie entstanden sind, eigentlich hinreichend, um keine weitere Zeit mehr darauf zu verschwenden und den ganzen „Entwurf“ in dem Müll zu werfen. Es ist daher durchaus verständlich, wenn Sie auch keine weitere Zeit auf diesen Artikel verschwenden möchten. Die Forumsteilnehmer bei Metabunk haben jedoch auch eine ganze Anzahl systematischer Probleme in Hulseys Methodik gefunden, sofern diese aus dem, was er öffentlich macht, überhaupt nachvollziehbar ist. Diese Probleme möchte ich hier nur der Vollständigkeit halber stichpunktartig aufführen:

Screenshot aus Hulseys Entwurf, Seite 102
  • In der Bildunterschrift zu diesem Ausschnitt aus dem „Entwurf“ erklärt Hulsey, das Bild sei das Ergebnis einer „linear-statischen Analyse“. Linear heißt in diesem Zusammenhang, dass das Modell voraussetzt, dass wie bei einer Sprungfeder die doppelte Kraft auf ein Bauteil auch die doppelte Verformung auslöst. Eine nichtlineare Analyse würde auch berücksichtigen, dass Bauteile bei zu großer Belastung irgendwann brechen oder dass ein Teil, wenn es gegen ein anderes gedrückt worden ist, nicht weiter nachgeben kann. Statisch bedeutet, dass das Modell nur unveränderliche Kräfte wie Gewichte oder Federkräfte berücksichtigt. Ein dynamisches Modell müsste auch kurzzeitige Kräfte berücksichtigen, die zum Beispiel beim Aufschlag eines fallenden Teils auf ein anderes entstehen. Eine linear statische Analyse ist auf ein einsturzgefährdetes Gebäude also nur anwendbar, bis das erste Bauteil anfängt, sich zu bewegen. Den Verlauf eines Einsturzes mit einem linear statischen Modell zu berechnen, ergibt zwangsläufig vollkommenen Müll. Bei anderen Darstellungen spricht Hulsey zwar von einer dynamischen Analyse, erwähnt aber nicht, ob diese auch die nötigen nichtlinearen Effekte berücksichtigt. Der Begriff der Nichtlinearität kommt in seinem Entwurf nur in dem Zusammenhang vor, dass einzelne Verbindungen in einem ansonsten linearen Modell als „nichtlineare Federn“ modelliert sind.

    Screenshot aus Hulseys Entwurf, Seite 106
  • Hulsey erklärt im Entwurf und in der Präsentation ausdrücklich, das „Versagen“ von Säulen im Gebäude sei dadurch modelliert worden, dass diese Säulen über jeweils acht Stockwerke aus dem Modell entfernt worden seien. Ob dieses Versagen auch zum Einsturz benachbarter Säulen führt, leitet er dann nur daraus ab, wieviel zusätzliches Gewicht diese Säulen nach dem Wegfall der Nachbarn tragen müssen. So kommt er zu der Schlussfolgerung, das vom NIST als Beginn des Einsturzes identifizierte Einstürzen von drei Säulen im Gebäudekern hätte unmöglich den Einsturz der benachbarten Säulen und schließlich des gesamten Gebäudes nach sich ziehen können. Eine brechende Stahlsäule (mit Sprengung oder ohne) löst sich aber nicht in Luft auf: In der Regel knickt sie zur Seite ein. Im ungünstigsten Fall trifft sie dabei eine der benachbarten Säulen und knickt diese ebenfalls ab. Aber selbst im günstigsten Fall, dass der obere Teil der Säule einfach neben dem Stumpf des unteren abgleitet, entstehen über die Querverbindungen wie Deckenträger und Fußböden erhebliche seitwärtige Zugkräfte auf die benachbarten Säulen. Solche 190 Meter hohen und nur 60 cm dicken Säulen (bezogen auf die Länge eines Streichholzes entspricht das gerade der Dicke von zwei menschlichen Haaren) können zwar extreme Gewichtskräfte in senkrechter Richtung aufnehmen, sind aber sehr anfällig gegen Kräfte von der Seite. Die absehbaren Folgen sind in Hulseys Modell nicht enthalten, vermutlich weil sie eben eine nichtlinear-dynamische Analyse erfordert hätten, wie sie das NIST vorgenommen hat.
  • Aufgrund dieser Angaben im Text und in Hulseys Vortrag sowie der präsentierten Resultate geht der Metabunk-Autor Mick West davon aus, dass Hulseys Berechnungen überhaupt keine tatsächliche dynamische Analyse enthalten. Das würde auch die bemerkenswerte innere Stabilität der simulierten Gebäudestruktur erklären: In diesem Fall würde sich das Gebäude nicht verformen, weil diese Verformungen schlicht nicht berechnet werden. Aufgrund der Ergebnisse einer statischen Berechnung (Überlastung bzw. Entfernen tragender Säulen) wäre der über der Schadenstelle liegende Gebäudeteil einfach gemäß der im ersten Moment herrschenden Kräfte entweder zur Seite gekippt oder senkrecht im Boden versenkt worden. In diesem Fall wäre Hulseys „Simulation“ natürlich eine reine Farce und eine bewusste Täuschung der Öffentlichkeit. Tendentiell bestätigt wird Wests Mutmaßung durch eine Videoanalyse einzelner Bildpunkte, nach der sich die einzelnen Strukturelemente in Hulseys Animationen nicht nur sehr wenig, sondern tatsächlich gar nicht bewegen:

    Screenshot aus einem Analysevideo zu Hulseys Animationen, Anklicken zum Ansehen des Videos
  • Wests Vermutung würde auch ein extrem seltsames Verhalten des östlichen Penthauses in Hulseys Simulation erklären. Hulsey unterstellt ja, um den Einsturz dieses Dachaufbaus überhaupt erklären zu können, die Zerstörung von drei inneren Säulen in einem der obersten Stockwerke mehrere Sekunden vor der Zerstörung aller Säulen auf Höhe der unteren Stockwerke. Während nach der NIST-Simulation (im Bild unten auf der linken Seite) das Penthaus einfach dem schon einstürzenden Gebäudekern folgt, zerbricht es bei Hulsey (rechts) in zwei große Teile, die durch mehrere noch intakte Betondecken und deren Stahlträger hindurch abstürzen, aber dann ein paar Stockwerke weiter mehr oder weniger in ihrer ursprünglichen Form steckenbleiben. Dabei handelt es sich beim Penthaus um eine im Vergleich zu anderen Teilen des Gebäudes relativ leichte Konstruktion. Das kann nicht das Ergebnis einer Simulation sein, die Kollisionen zwischen den einzelnen Bauteilen des Penthauses und den durchflogenen Betondecken berechnet. Damit stellt sich natürlich die Frage, was Hulseys „Simulation“ überhaupt berechnet.

    Screenshot aus Mick Wests Analysevideo zu Hulseys Präsentation, Anklicken zum Ansehen des Videos
  • West verweist in seiner Analyse gleich auf mehrere Stellen in Hulseys Text und Vortrag, an denen er die NIST-Simulation in einer Weise kritisiert, die nur dadurch zu erklären ist, dass Hulsey die Arbeit des NIST nicht verstanden hat oder nicht verstehen will. So verwendet er einen beträchtlichen Teil seines Textes darauf, das Abrutschen eines einzelnen Trägers vermeintlich zu widerlegen, den das NIST beispielhaft als einen möglichen Auslöser des letztlichen Einsturzes modelliert hatte. Im NIST-Gesamtmodell des Einsturzes ist dieser Träger für den Ablauf jedoch gar nicht entscheidend. An anderer Stelle kritisiert Hulsey unterschiedliche Strukturen zwischen unterschiedlichen Gebäudeteilen in der NIST-Simulation. Die feiner aufgelöste Struktur für einen Gebäudeteil diente jedoch nur für eine Detailanalyse innerhalb dieses Teils. Bei der Simulation des Gesamteinsturzes wurde das komplette Gebäude mit einer einheitlichen Simulationsstruktur berechnet.

Zusammenfassend muss man sagen, dass Hulseys Modell, was immer es tatsächlich intern tut, offensichtlich völlig ungeeignet ist, um daraus irgendwelche Rückschlüsse auf die Vorgänge am 11. September 2001 zu ziehen. Es beschreibt eine Phantasiewelt, die grundlegendsten Gesetzen der Mechanik widerspricht, in der komplexe Gebäude sich verhalten wie massive Klötze und Stahlträger durch Betonplatten fallen, ohne dabei auch nur abgelenkt zu werden. Man muss auch eigentlich kein Bauingenieur sein, dass einem diese Fehler geradezu ins Auge springen, und Hulsey darf sie aufgrund seiner Qualifikation und Erfahrung eigentlich unmöglich übersehen. Offen bleibt jedoch, ob es sich bei seiner Vorstellung um ein bewusstes politisch motiviertes Täuschungsmanöver handelt (weil möglicherweise eine realistischere Berechnung nicht das gewünschte Ergebnis gebracht hat) oder ob er es einschließlich seiner beiden Doktoranden tatsächlich nicht besser hinbekommen hat.

 

 

5G-Mobilfunk und die Party der Verschwörungs-Schwurbler

Ich sag’s gleich vorweg: Das wird mal wieder lang – aber wenn man zu dem Thema fundiert etwas sagen will, kommt man an ein paar Hintergründen nicht vorbei, und der Artikel ist durchaus auch mal zum späteren Nachlesen und zum Weitergeben an verunsicherte oder sonstwie besorgte Zeitgenossen gedacht. So richtig viel Fundiertes gibt es zu dem Thema ja noch nicht, auch wenn ich gerade sehe, dass mir der sehr geschätzte Physikerkollege Florian Aigner mit einem Artikel um ein paar Stunden zuvorgekommen ist, den ich als Ergänzung und etwas kürzere Zusammenfassung ebenfalls empfehle.

Panikmache auf rechtsesoterischen Verschwörungsseiten

Wenn man auf Youtube das Stichwort „5G Strahlung“ in die Suchfunktion eingibt, kann man gleich unter den ersten Suchergebnissen den Eindruck gewinnen, der zukünftige 5G-Mobilfunkstandard brächte eine Form von Killerstrahlung mit sich, die in der Lage sein müsste, ganze Landstriche zu entvölkern.

„WARNUNG vor 5G !!!!!!!!!!!!!!!!!!!!!Wollen sie uns Kochen??Strahlung im Microwellenbereich!!!“ ist dort zu lesen, „Dringender Weckruf: 5G ist Gefahr für Leib und Leben!“ sowie „5G=Globaler „MIKROWELLEN- HERD“ OHNE ENTRINNEN- Alle 200m ein Sender!“. „5G kommt! Verstrahlt im Namen der NWO!“[neue Weltordnung] titelt ein selbsternannter „Freund der Wahrheit“ in seinem Videokanal, und gleich der erste Kommentator erklärt darunter: „Das 5G ist ein Mikrowellenwaffensystem. Diese Strahlen werden uns geistig und körperlich völlig zerstören.“

Der überwiegende Teil der Youtube-Kanäle, die diese Videos und Schlagzeilen verbreiten, gehört zu dem üblichen, sich regelmäßig gegenseitig referenzierenden Netzwerk von Seiten, die für Verschwörungsmythen, rechte Propaganda, antisemitische Anfeindungen gegen jüdische Unternehmer, Hetze gegen Flüchtlinge sowie Werbung für abstruse Pseudomedizin bekannt sind. Eine ganze Reihe von 5G-Videos dieser Art kommt von Ivo Saseks Klagemauer.tv. Darin findet sich auch das in diversen Videos dieser Art verbreitete Märchen, bei einem 5G-Test (den es dort gar nicht gab) seien in Den Haag tote Vögel vom Himmel gefallen. In anderen Videos solidarisiert sich der Kanal mit Rechtsextremen, erklärt gemäß klassisch antisemitischem Verschwörungsdenken den Kommunismus zum Ziehkind der „Hochfinanz“ (wobei im Zielpublikum jedem klar sein dürfte, dass damit die Juden gemeint sind) und den islamistischen Anschlag von Straßburg zu einer Inszenierung der französischen Regierung. Die Flüchtlingskrise ist für Klagemauer.tv eine vom jüdischen Unternehmer George Soros eingefädelte „Verschwörungstatsache“. Sasek, der selbst in der Schweiz schon wegen Holocaustleugnung und Rassendiskriminierung angeklagt war, hatte 2012 auf seiner Antizensurkonferenz Sylvia Stolz, der ehemaligen Anwältin der Holocaustleugner Ernst Zündel und Horst Mahler, einen Vortrag ermöglicht, den er anschließend sichtlich gerührt bejubelte. Für eben diesen Auftritt ist Sylvia Stolz inzwischen selbst in Deutschland wegen Holocaustleugnung zu einer Haftstrafe ohne Bewährung verurteilt worden.

Auf bewusst.tv agitiert gegen 5G der dortige Stammmoderator Jo Conrad, der auch schon als Veranstalter von Reichsbürgerkonferenzen in Erscheinung getreten ist. Selbstverständlich darf auch der ehemalige Greenpeace-Aktivist Werner Altnickel nicht fehlen, der sonst inzwischen lieber über Chemtrails fabuliert, Reichsbürgerideologie verbreitet und stolz darauf zu sein scheint, wenn er zur rechten Szene gezählt wird:

In einigen Fällen ist der Hintergrund der Panikmache klar, wenn zum Beispiel unter der Schlagzeile „Angriff auf unsere Zirbeldryse durch Fluorid & 5G Strahlung!“ Enrico Edinger, der sich inzwischen als Prof.* Dr. nauk* Dr. med. bezeichnet, für den Kauf windiger Nahrungsergänzungsmittel wirbt. Im gleichen Video erklärt Edinger übrigens auch: „Elektroautos sind Mord für den Menschen. Also, auch von der Tumorbildung her.“

Besonders bizarr ist ein Video des Kanals mit dem vertrauenerweckenden Namen Extremnews. Es trägt den Titel „Medienwissenschaftler: Warum 5G hochgefährlich ist“.  Inwiefern die Medienwissenschaft, die die Massenkommunikation aus geistes- und kulturwissenschaftlicher Perspektive untersucht, jemanden dazu befähigen soll, Aussagen über die medizinische Wirkung elektromagnetischer Wellen zu machen, erschließt sich mir nicht. Lustig wird es, wenn man bemerkt, dass der angekündigte Medienwissenschaftler niemand anders ist als Harald Kautz-Vella. Kautz-Vellas abstruse Phantastereien hat selbst der bereits erwähnte Werner Altnickel in einem Interview schon mit den Worten kommentiert: „Wenn unsere Gegner das zitieren, stehen wir vielleicht insgesamt als Idioten da.“ Im Bemühen, in Esoterik und Verschwörungsglauben irgendwie wahrgenommen zu werden, treibt Kautz-Vella alle paar Jahre eine neue Sau durchs Dorf. Der goldene Aluhut hat ein paar witzige Zitate aus der Zeit zusammengetragen, als Kautz-Vella sich primär über die vermeintliche Hautkrankheit Morgellons positionierte – bei der es sich in Wirklichkeit meist um eine Wahnvorstellung handelt. Mein Lieblings-Kautzvellismus ist allerdings Black Goo, ein schwarzes Wunderöl, das von Außerirdischen auf die Erde gebracht worden sein und eine eigene Intelligenz und ein Bewusstsein haben soll.

Wenn das Thema in diesem Umfeld von Antisemitismus, Pseudomedizin und Verschwörungshetze bliebe, müsste man sich möglicherweise nicht so sehr aufregen. Bedauerlicherweise schwappt es von dort immer wieder in die Mainstreammedien herüber, und zwar in erschreckend ähnlichem Tonfall, und häufig auch mit ähnlicher Faktenbasis.

Die gleiche Panikmache in Mainstreammedien

„Strahlendes Experiment“ überschreibt die Zeit einen Artikel, in dem die entscheidende Aussage über Mobilfunk irgendwo im Kleingedruckten untergeht: „Hunderte Studien konnten bisher nicht nachweisen, dass eine Gesundheitsgefahr von diesen elektromagnetischen Feldern (EMF) ausgeht.“ Die angeblich noch unbekannten Risiken, mit denen laut Zeit an der Bevölkerung experimentiert wird, finden sich fast identisch in der Rede des AfD-Abgeordneten Peter Felser am 4. April 2019 im Bundestag: „Uns muss doch klar sein, dass wir noch überhaupt keine Langzeitrisiken dieser Technologien abschätzen können. Wir sind mit diesen Funkstrahlen in einem riesigen Feldexperiment.“ Der Tagesspiegel folgt eher dem Tonfall der Online-Verschwörungshetzer als dem der AfD und behauptet: „Europas Regierungen ignorieren die Gefahr.“ Wie die Zeit verlinkt auch der Tagesspiegel eine der typischen Unterschriftslisten von Elektrosmoggegnern und bezeichnet die Unterzeichner der Einfachheit halber als Wissenschaftler. Ein genauerer Blick auf die beiden Listen zeigt die zum Teil identischen üblichen Verdächtigen aus der Elektrosmogszene, Hausärzte, Naturheiler, Homöopathen und Mitglieder selbsternannter „Kompetenzinitiativen“. Die von der Zeit verlinkte Liste ist neben der Redakteurin des „ElektrosmogReport“ und Harald Walach, dem Erfinder der „schwachen Quantentheorie“ auch vom Quantenesoteriker Ulrich Warnke unterschrieben, zu dem ich einiges in der Neuauflage des Quantenquark-Buchs geschrieben habe. Auf beiden Listen als Wissenschaftler aufgeführt ist Florian M. König, der lustige Elektrosmog-Schutzprodukte zum Einbau in die Stromleitung verhökert und sich dabei auf wissenschaftliche Kapazitäten wie den angeblichen Reichsflugscheibenentwickler Viktor Schauberger und den Orgon-Phantasten Wilhelm Reich beruft.

Der Sender rbb schreibt gleich Forscher fordern Abbruch des 5G-Testlaufs in Berlin.“ Der Link des rbb über die Forderung  der „Forscher“ führt auf das Elektrosmog-Gläubigen-Portal „diagnose:funk“, wo dann die nächste Unterschriftenliste angeblicher Wissenschaftler verlinkt ist. Die hier wenigen deutschen Unterzeichner kennt man überwiegend schon von den beiden anderen Listen – König und Warnke sind auch wieder mit von der Partie. Der wichtigste Experte des rbb-Artikels ist Franz Adlkofer, der mit der Aussage zitiert wird, Mobilfunkstrahlung sei „mit hoher Wahrscheinlichkeit gesundheitsschädlich“. Der frühere Lobbyist für die Tabakindustrie Adlkofer war um 2000 herum Koordinator einer Studie, die Mobilfunk mit Krebs in Verbindung brachte und die nach einer Serie von Datenfälschungsskandalen inzwischen völlig diskreditiert ist. Der rbb erwähnt Adlkofers fragwürdige Vergangenheit nicht, sondern schreibt über ihn nur, er untersuche „seit Jahren, wie sich Mobilfunkstrahlen auf die Gesundheit der Menschen auswirken.“ Außer beim rbb ist Adlkofer gern gesehener Gast beim Verschwörungsmythenkanal KenFM und beim offiziellen Propagandaportal der russischen Regierung RT Deutsch.

Grundlegendes zur Wirkung elektromagnetischer Wellen

Nun kann sich eine mehr oder weniger wissenschaftliche These ihre Anhänger ja nicht aussuchen, und es wäre im Prinzip denkbar, dass die Mobilfunkstrahlung  wenigstens der neuen 5G-Technik doch irgendwie gefährlich ist, trotz der fragwürdigen Vertreter, die diese Gefährlichkeit behaupten. Wie plausibel ist eine solche Schädlichkeit also aus physikalischer Sicht? Werfen wir dazu erst einmal einen Blick darauf, wie elektromagnetische Wellen überhaupt auf biologisches Material wirken können. Dass das je nach der Wellenlänge unterschiedlich ist, hängt tatsächlich mal mit der Quantenphysik zusammen. Wer im Quantenquark-Buch das Kapitel zur Entstehung der Quantenmechanik gelesen hat, hat daher für die folgenden Absätze schon einmal einen kleinen Vorsprung.

Nach dem 1900 entdeckten Planckschen Strahlungsgesetz bestehen Wellen aus winzigen Energiepaketen, die als Quanten oder, im konkreten Fall elektromagnetischer Wellen, als Photonen bezeichnet werden. Je höher die Frequenz, mit der die Welle schwingt, je kürzer also die Wellenlänge, desto größer ist die Energie des einzelnen Photons. Mit Einsteins Berechnung des Photoeffekts aus dem Jahr 1905 ist auch klar, dass ein solchen Photon seine Energie immer auf genau ein geladenes Teilchen (also ein Elektron oder ein Proton) überträgt, mit dem es zusammentrifft. Dasselbe Elektron wird danach in der Regel nicht noch ein zweites Photon derselben Energie absorbieren. Es ist also ein entscheidender Unterschied, ob eine Energiemenge in einem Photon oder auf mehrere Photonen verteilt übertragen wird.

Ionisierende Strahlung

Reicht die Energiemenge eines Photons aus, um ein Elektron vollständig aus seinem Atom, Molekül oder Kristallgitter herauszuschleudern, dann bleibt der Rest des Atoms oder Moleküls als positiv geladenes Ion übrig. Man spricht dann von ionisierender Strahlung. Dabei können auch ansonsten sehr stabile chemische Bindungen zerstört werden. Passiert das im Erbgut einer lebenden Zelle, dann kann das mit sehr geringer Wahrscheinlichkeit (meistens ist die beschädigte Stelle im Erbgut für die Zelle gar nicht relevant, oder sie ist lebenswichtig und die Zelle stirbt einfach) dazu führen, dass die Zelle sich unkontrolliert vermehrt und einen Tumor bildet. Daher kann ionisierende Strahlung Krebs auslösen oder bei der Fortpflanzung zu vermehrten Mutationen in der nächsten Generation führen. Da sich ein Tumor aus einer einzelnen Zelle entwickeln kann, kann wenigstens theoretisch jedes einzelne ionisierende Photon tödlich sein, wenn die körpereigenen Reparaturmechnismen versagen. Ionisierende Strahlung kann also tödlich sein, ohne dass man sie überhaupt bemerkt. Elektromagnetische Wellen sind ionisierend, wenn ihre Wellenlänge kürzer ist als die von sichtbarem Licht. Ionisierend und damit potentiell krebsauslösend sind also ultraviolettes Licht, Röntgenstrahlung und Gammastrahlung.

Das sichtbare Licht zusammen mit dem nahen Infrarot bildet eine Art Übergangsbereich: Es kann Elektronen nicht mehr aus einem Atom herauslösen, sie aber in angeregte Zustände versetzen und somit auch gewisse chemische Reaktionen auslösen – dadurch kann auch unser Auge das Licht wahrnehmen. Die Energie der Photonen des sichtbaren Lichts reicht aber schon nicht mehr aus, um stabile chemische Bindungen wie in der DNA unseres Erbguts zu verändern. Daher ist es auch nicht krebserregend.

Mikro- und Radiowellen

Bei noch größeren Wellenlängen, wie dem fernen Infrarot, den Mikrowellen und den Radiowellen, wird die Energie der einzelnen Photonen so klein, dass diese Quanten vollkommen bedeutungslos werden und die Welle nur noch als Ganzes messbare Energien übertragen kann. Die Energie kann daher nicht mehr auf einzelne Atome übertragen werden, so dass auch keine einzelnen chemischen Bindungen zerstört werden und die Wellen somit keinen Krebs auslösen können.

Schaden anrichten können solche Wellen dennoch, allerdings auf ganz andere Art: Nicht einzelne Photonen, sondern die Welle als ganzes kann elektrische Ladungen, auch innerhalb von großen Molekülen, in Schwingung versetzen. Die Schwingungen äußern sich dann im betreffenden Material als Wärme. In biologischem Material funktioniert das am stärksten in dem Frequenzbereich, in dem Wassermoleküle besonders gut schwingen, und genau dieser Effekt wird im Mikrowellenherd ausgenutzt. Im Prinzip passiert aber genau das gleiche (bei jeweils unterschiedlichen Eindringtiefen ins Material) über den gesamten Frequenzbereich vom Infrarot bis zu den Radiowellen. Werden Körperteile eines lebenden Organismus in dieser Form schneller erhitzt, als die Wärme zum Beispiel über den Blutkreislauf verteilt und aus dem Körper abgegeben werden kann, kann das zu Schäden bis hin zu Verbrennungen oder dem Tod führen. Das kann aber logischerweise kaum unbemerkt passieren, weil wir Temperaturveränderungen spüren. Ebenso kann eine geringfügige Erwärmung auch bei regelmäßiger Wiederholung nicht zu Schäden führen, weil der Körper seine Temperatur ohnehin ständig regeln muss, ob Wärme nun durch elektromagnetische Wellen, durch Wärmeleitung oder durch Verdunstung und Kondensation zugeführt oder abgegeben wird. Die Grenzwerte für Strahlungsintensitäten in diesem Frequenzbereich richten sich daher danach, dass eine eventuell ausgelöste Erwärmung von Körperteilen oder des ganzen Körpers keinen Schaden anrichten darf.

Niederfrequente Wechselfelder

Bei noch niedrigeren Frequenzen, die sich kaum noch sinnvoll als Wellenlänge ausdrücken lassen, spielt dann auch die Erwärmung keine Rolle mehr. Stattdessen führen solche niederfrequenten Wechselfelder in biologischem Material zu elektrischen Strömen. Bekanntermaßen können elektrische Ströme dem Menschen schaden. Allerdings sind dazu Stromstärken erforderlich, die weit über die Schwelle hinausgehen, bei der man die Ströme schon deutlich spüren kann. Solche Wechselfelder begegnen uns praktisch nur durch die 50-Hertz-Wechselspannung unseres Stromnetzes. Wenn man bei Regen unter einer Hochspannungsleitung läuft, kann es vorkommen, dass man die vom Wechselfeld der Leitung verursachten Ströme als Kribbeln wahrnimmt. Bei solchen Frequenzen richten sich die Grenzwerte für zulässige Feldstärken daher am Auftreten solcher unangenehmer Wahrnehmungen, auch wenn noch weitaus größere Intensitäten auftreten müssten, um echte Gesundheitsschäden auslösen zu können.

Nobelpreise, die offenbar niemand abholen will

Die genannten Effekte, Schwingung/Erwärmung und induzierte Ströme, sind die einzigen, die sich auf Basis der bekannten Physik und Chemie für nicht ionisierende elektromagnetische Wellen in biologischem Material ableiten lassen. Die unter anderem von Warnke verbreitete Vorstellung, die DNA des Erbguts könnte von Mikrowellen so stark zum Schwingen gebracht werden, dass sie durchreißt, ergibt physikalisch auch keinen Sinn. Eine solche Schwingung wäre wieder nichts weiter als eine Erwärmung, und DNA ist weitaus hitzebeständiger als die meisten Eiweiße, die sie umgeben. Bevor eine Zelle durch ein von Mikrowellen verursachtes Zerreißen der DNA zur Tumorzelle werden könnte, wäre sie gargekocht und damit tot. Wer behauptet, durch Mikrowellen oder andere nicht ionisierende elektromagnetische Wellen könnten gesundheitliche Schäden anders als durch Überhitzung entstehen, müsste also zunächst einmal einen Wirkmechanismus erklären. Da dieser im Rahmen der Physik nicht existiert, wäre dafür bei entsprechendem Nachweis nicht nur der ohnehin fällige Nobelpreis für Medizin zu bekommen, sondern gleich auch noch einer für Physik. Bislang gibt es dafür keine Kandidaten, zumal die Vertreter der Elektrosmogszene in der Regel lieber panische Schlagzeilen verbreiten, als sich Gedanken darüber zu machen, wie die von ihnen behaupteten Gefahren eigentlich zustande kommen sollen.

Was genau ist eigentlich 5G

„5G“ bezeichnet zunächst einmal einfach die fünfte Generation mobiler Internetverbindungen. Die erste Generation wäre dabei die Datenübertragung über eine analoge mobile Sprechverbindung. Zur zweiten Generation gehören GPRS und EDGE, auf die Nutzer bei schlechter Verbindung heute noch öfters zurückgeworfen sind. Die dritte Generation mit UMTS, löste bei seiner Einführung den ersten großen mobile-Datenverbindungs-Hype aus und spülte in Deutschland im Jahr 2000 über die Versteigerung der Lizenzen zig Milliarden in die Kassen des Bundes. Die vierte Generation entspricht in Deutschland weitgehend dem seit 2010 eingesetzen LTE. Verändert haben sich zwischen den Generationen vor allem die Übertragungsprotokolle und die Art, wie Verbindungen auf nahe beieinanderliegende Frequenzen verteilt werden. Entsprechend haben sich auch die Antennen geringfügig verändert. An der grundlegenden Struktur der Netze hat sich vor allem beim letzten Schritt von UMTS zu LTE wenig verändert.  Mit jeder neuen Generation haben sich aber die erreichbaren Datenraten vervielfacht, und das soll auch in der fünften Generation passieren.

Nun würde eine neue Generation von Übertragungsprotokollen auf ähnlichen Frequenzen wie bisher in einem weitgehend bestehenden Netz wahrscheinlich selbst hartgesottene Elektrosmog-Geschäftemacher kaum noch in Wallung bringen. Durch die Hintertür bringt 5G allerdings einige interessante technische Veränderungen mit sich, denn wenn der neue Standard überhaupt spürbare Vorteile bringen soll, muss eine ganz neue Nachfrage nach Datenübertragung entstehen.

Für heutige Smartphones ist die Datenübertragungsrate von LTE nämlich für alle praktischen Zwecke ziemlich ausreichend. Die höchsten Übertragungsraten, die die meisten User mit ihren Smartphones tatsächlich brauchen, fallen für das Streaming von hochauflösenden Videos an. Dafür braucht man 5G nicht, so dass Nutzer kaum bereit sind, für noch höhere Datenraten auch mehr zu bezahlen. Viele private Nutzer haben ohnehin Tarife, bei denen das monatliche Gesamtvolumen so begrenzt ist, dass Streaming für sie bestenfalls kurzzeitig in Frage kommt. Sie bezahlen also nicht einmal für die vollen Möglichkeiten der heutigen Technik.

Wollen die Anbieter mit ihrem neuen Standard also tatsächlich zusätzliche Einnahmen generieren – und das müssen sie, um dessen Einführung finanzieren zu können – dann muss durch neue Anwendungen ein neuer Bedarf entstehen. Erwartet wird dieser Bedarf vor allem durch das „Internet der Dinge“, also dadurch, dass immer mehr technische Geräte, die nicht primär der Kommunikation dienen, Daten versenden. Das Vorzeigebeispiel ist meist der Kühlschrank, der selbstständig die zur Neige gehenden Vorräte nachbestellt. Tatsächlich sind, wenn man die Kosten in den Griff bekommt, eine Unzahl von Anwendungen denkbar: Maschinen in Fabriken, die ihre Funktion an die Konzernzentrale melden, landwirtschaftliche Geräte, die beim Ernten schon die Mengen in der Mühle anmelden, Frachtstücke und Kühlbehälter, die ihren eigenen Transport überwachen, das Smart Home, das automatisch lüftet und heizt, wenn sich die Bewohner aus dem Urlaub nähern, Arzneimittel, die sich aus dem Arzneischrank melden, wenn ihr Verfallsdatum naht… Gerade die vielen Effizienzgewinne, die sich hier abzeichnen, lassen erwarten, dass private und geschäftliche Kunden bereit sein werden, dafür angemessen zu bezahlen. Die meisten dieser Geräte brauchen für sich genommen keine riesigen Datenraten, aber in der Summe sollte die übertragene Datenmenge dramatisch ansteigen.

Was aber vor allem ansteigt, ist die Anzahl der Endgeräte und damit der Verbindungen, und jede dieser Verbindungen braucht vereinfacht gesagt im Moment der Datenübertragung eine eigene Frequenz, auf der ein Gerät mit einer Basisstation kommunizieren kann, ohne dass ein anderes Gerät innerhalb der Reichweite auf derselben Frequenz dazwischenquakt. Das ist nur durch neue Übertragungsprotokolle nicht zu erreichen. Wenn 5G und das Internet der Dinge den Nutzen bringen sollen, den man sich von ihnen erwartet, brauchen sie deutlich mehr Frequenzen und deutlich mehr Basisstationen.

Arbeitet 5G auf ganz neuen Frequenzen?

Im Bereich der aktuell für den Mobilfunk genutzten Frequenzen zwischen 700 und 2600 MHz wird es allerdings langsam eng. Schon für UMTS und LTE hatte die Bundesnetzagentur zusätzliche Frequenzen freischaufeln müssen, die vorher teils dem Militär, teils dem DVB-T-Fernsehen vorbehalten waren. Im Frequenzplan sieht man, viel dürfte in diesem Bereich nicht mehr zu holen sein. Ein paar kleine Fenster könnte die Bundeswehr vielleicht noch abgeben, und ein paar könnte man effizienter nutzen, indem man die alten Mobilfunknetze abschaltet und die Frequenzen für 5G recyclet – aber dann würden natürlich auch die letzten noch verwendeten Nokia-Knochen nicht mehr funktionieren.

Für die ganz hohen Datenraten kann man physikalisch mit der Frequenz auch nicht sehr weit nach unten gehen: Übertragen werden die Daten ja über Veränderungen eines Funksignals. Damit die Frequenz dieses Signals überhaupt noch erkannt werden kann, muss die Frequenz, mit der es sich ändert (und damit die Bitrate der Datenübertragung), logischerweise deutlich kleiner sein. Daher lassen sich über höhere Sendefrequenzen mehr Daten übertragen. Gleichzeitig werden die Reichweite in unserer realen Umwelt, die Fähigkeit, Wände zu durchdringen oder sich um Hindernisse herumzukrümmen, mit höherer Frequenz immer schlechter. Auch die heutige Sende- und Empfangstechnik hat zu sehr hohen Frequenzen hin ihre Grenzen. Für die nächsten Jahre sind für 5G also neben Lücken bei 2000 MHz zunächst einmal Frequenzen zwischen 3400 und 3700 MHz vorgesehen.

Ist das die gefürchtete Mikrowellenstrahlung und die Nutzung dieser Frequenzen das „strahlende Experiment“, von dem die Zeit schreibt? Wohl kaum. Der angesprochene Bereich liegt genau zwischen den Frequenzen, die wir wir von heutigem Mobilfunk, von DECT, Bluetooth und dem unteren WLAN-Frequenzband kennen und dem oberen WLAN-Frequenzband bei 5000 MHz, von dem Sie mit hoher Wahrscheinlichkeit in ihrer Wohnung und an vielen Arbeitsplätzen umgeben sind. Neu und unbekannt ist diese Art von Strahlung also keineswegs. Natürlich handelt es sich um Mikrowellen – genau wie bei praktisch allen schnellen, drahtlosen Datenverbindungen, mit denen wir täglich zu tun haben.

Längerfristig ist aber auch absehbar, dass bei sehr vielen neuen Geräten mit Internetanbindung in einem kleinen Gebiet auch diese Frequenzen irgendwann nicht mehr ausreichen dürften. Höhere Frequenzen sind zunächst einmal durch Satellitenkommunikation, auch Satellitenfernsehen, sowie Radargeräte belegt, gefolgt von einem Bereich, in dem die Wellen vom Wasserdampf in der Atmosphäre stark absorbiert werden, so dass die Reichweiten extrem kurz und wetterabhängig würden. Wahrscheinlich geeignetere und noch wenig genutzte Frequenzen fände man wieder zwischen 25.000 und 35.000 MHz (25-35 GHz). [Aktualisierung 26.11.19: zwischen 24.000 und 35.000 MHz (24-35 GHz). Gegen die zumindest in internationalen Konferenzen diskutierten Frequenzen bei 24 GHz gibt es jedoch Bedenken, sie könnten Messungen des Wasserdampfgehalts in der Atmosphäre durch Wettersatelliten stören, die einen Frequenzbereich knapp unter 24 GHz nutzen.] Genaue Frequenzen sind dort noch nicht festgelegt, und die technische Machbarkeit wird noch erprobt. Das ist also so oder so Zukunftsmusik und hat mit dem 5G, das ab 2020 allmählich in Betrieb gehen soll, wenig zu tun. Klar ist nur, wenn sehr viele neue Geräte kommen, wird man irgendwann Frequenzen in diesem Bereich nutzen müssen. Aktuell arbeiten dort zum Beispiel Satellitenfunk und spezielle Radargeräte wie Abstandsmesser für autonomes Fahren oder manche Radarfallen. Da wir im Alltag bislang noch eher wenigen Sendern in diesem Bereich begegnen, kann man sich theoretisch schädigende Wirkungen zusammenphantasieren, die noch nicht aufgefallen sein könnten, falls sie selten genug aufträten.  Auch hier wäre aber ein Nobelpreis für Physik fällig, denn nach den Gesetzen der Physik ist auch in diesem Bereich, immer noch weit unter dem Infrarot und noch weiter unterhalb des sichtbaren Lichts und der ionisierenden Strahlung, die einzige Wirkung auf biologisches Material eine Erwärmung.

Einen biologischen Unterschied gibt es allerdings tatsächlich: Die kürzeren Wellen bei diesen Frequenzen geben beim Auftreffen auf den Körper ihre Energie nicht über mehrere Zentimeter Weglänge im Gewebe ab, sondern direkt in der obersten Hautschicht. Der Körper würde also nicht wie durch heutigen Mobilfunk im Gewebe erwärmt, sondern direkt auf der Haut. Die würde sich vor allem bei schlechter Durchblutung möglicherweise schneller aufheizen. Das klingt beunruhigend, aber tatsächlich hätte es einen entscheidenden Vorteil: Auf der Haut haben wir anders als tief im Gewebe Nervenenden, die Wärme wahrnehmen. Eine Annäherung an einen zu starken Sender würde man also viel schneller als heiß empfinden und könnte sich in Sicherheit bringen. Der Effekt würde einem Infrarot-Heizstrahler ähneln, der allerdings bei noch viel höheren Frequenzen strahlt.

Alle 200 Meter ein Sendemast?

Bei den für einen späteren Ausbau vorgesehenen Frequenzen ab 25 GHz ist die Reichweite durch Hindernisse und Absorption in der Luft erheblich geringer als bei heutigem Mobilfunk. Für die Flächenabdeckung ist das natürlich ein Nachteil, aber in Gebieten mit hoher Nutzerdichte eher vorteilhaft, weil man dieselbe Frequenz an einem anderen Sendemast schon in überschaubarem Abstand wieder verwenden kann. Die kurze Reichweite führt also dazu, dass man nicht absurd viele zusätzliche Frequenzen braucht. Sie erfordert aber natürlich tatsächlich deutlich mehr Sendestationen. In gewisser Weise verschwimmt damit in Innenstädten durch 5G der Unterschied zwischen Mobilfunk und öffentlichem WLAN. Die kürzere Reichweite bedeutet natürlich auch, dass die Strahlen-„Belastung“ auf der einzelnen Frequenz trotz mehr Sendestationen im Durchschnitt nicht ansteigt. Man braucht ja einfach nur genug Leistung, dass das Gerät kommunizieren kann. Die insgesamt eingestrahlte Leistung über alle Frequenzen steigt also nur in dem Umfang, wie mehr Geräte eben mehr Frequenzen brauchen.

Die kürzere Reichweite bei den sehr hohen Frequenzen, in Verbindung mit der populistischen Forderung mancher Politiker nach „5G an jeder Milchkanne“ dürfte zu der irrsinnigen Vorstellung geführt haben, ganz Deutschland würde mit Sendemasten im Abstand von 200 Metern zugepflastert. Hohe Dichten an Sendern wird es da geben, so sich viele Menschen aufhalten und sich damit auch viele Geräte ins Netz einwählen werden, also zum Beispiel in Frankfurt auf der Zeil oder in München rund um den Marienplatz. Auch Industriegebiete könnten eine hohe Senderdichte brauchen, wenn dort viele technische Geräte einen Internetzugang bekommen.

Auf dem Land sind die Kapazitäten der heutigen Mobilfunknetze hingegen nicht annähernd ausgelastet, und daran wird sich bei 5G auch dann nichts ändern, wenn alle Traktoren eine Internetanbindung haben und Forsthäuser zu Smart Homes werden. Wollte man die Flächenabdeckung des heutigen Mobilfunks erreichen, dann bräuchte man wegen der dort schon geringeren Reichweite allerdings schon bei den aktuell vorgesehenen Frequenzen von 3400 MHz in gewissem Umfang mehr Sendemasten als heute, die dann zum größten Teil nur zu winzigen Bruchteilen ausgelastet wären. Dass das nicht zu bezahlen wäre, ist offensichtlich auch den Fachleuten in den Ministerien klar, denn die Forderung nach hoher Flächenabdeckung, die es noch in den ersten LTE-Lizenzvergaben gab, kommt in den aktuellen 5G-Lizenzen nicht mehr vor. Will man die heutige Flächenabdeckung mit 5G erreichen, wird es sich kaum vermeiden lassen, heutige 2G- und UMTS-Frequenzen abzuschalten und auf den 5G-Standard zu übertragen – außer, man könnte doch noch niedrigere Frequenzen um 700 MHz freimachen. In diesen Fällen hätte man aber weder mehr Sendemasten noch eine „Belastung“ durch ungewohnte Frequenzen.

Was ändert sich also durch 5G?

Gesundheitlich ändert sich in der Summe nicht viel – in ländlichen Regionen eigentlich gar nichts. In den Innenstädten wird durch die potentiell große Dichte internetfähiger Geräte die Zahl jeweils aktiver Verbindungen und damit die insgesamt gesendete Leistung in gewissem Umfang ansteigen. Dort werden vermutlich auch neue Frequenzen auftauchen, bei denen die Wirkung auf den Körper tatsächlich anders ist, aber nur insofern, als der Körper dann auf der Haut erwärmt wird und nicht mehr unter der Haut.

Was bleibt, sind diffuse Ängste vor einer (einigermaßen) neuen Technologie, geschürt vom Sensationsjournalismus der selbsternannten Qualitätsmedien, die sich zum Steigbügelhalter von Verschwörungsmythen und antisemitischer Hetze machen.