- Gemeindenetzwerk - https://www.gemeindenetzwerk.de -

Ideologie und Energie

Ideologie und Energie

Eine Bemerkung vorab:

Es könnte im Folgenden der Anschein erweckt werden, der Autor hätte etwas gegen den Umweltschutz. Dem ist nicht so: Er hat sich sein ganzes Berufsleben mit energieeffizienten Prozessen beschäftigt und die Innovationspreise, die er bekommen hat („Unternehmerpreis innovativer Mittelstand“ 2004 der IHK und Innovationspreis des Landes Hessen 2007) hängen alle mit effektiver Energienutzung zusammen.

Das Thema Energie hat nach dem Unglück von Fukushima eine Richtung genommen, die für viele nüchtern denkende Menschen nicht mehr nachvollzierbar ist. Deshalb soll zunächst einmal überdacht werde, inwieweit die Kernkraft wirklich so unakzeptabel sein sollte, wie sie derzeit dargestellt wird. Dabei geht es weniger darum, Kernkraftwerken (KKW) wieder Akzeptanz zu verschaffen als um eine Hinterfragung der in diesem Zusammenhang aufgestellten Behauptungen.

Kernkraftwerke sind unsicher!

Das Standardargument lautet, dass Kernkraftwerke prinzipiell unsicher seien; als Beleg dafür dient seit Jahrzehnten der Tschernobyl-Unfall. Man muss allerdings sehen, dass es sehr unterschiedliche Typen von Atomreaktoren gibt. Der Reaktortyp Tschernobyl ist ein sehr instabiler Reaktor, den die Akademie der Wissenschaften der UdSSR als unsicher eingestuft hatte. Er hätte in Deutschland niemals gebaut werden können. Der Tschernobyl-Unfall ist sehr genau dokumentiert. Nachdem man zuvor alle Sicherheitseinrichtungen ausgeschaltet hatte, wurde er bei einer Sicherheitsüberprüfung bewusst in einen kritischen Betriebszustand gebracht. Wegen der offensichtlichen Inkompetenz der Bediener, den labilen Reaktor in dieser Situation richtig zu steuern, kam es zu einer Kernschmelze mit 56 Strahlentoten, die direkt mit dem Unfall zu tun haben. Es war kein normaler Betriebszustand, der zu dem Unfall führte, sondern ein unverantwortliches Experiment. In keinem anderen der vielen KKW mit gleichem Reaktortyp im damaligen Ostblock gab es einen ernsten Unfall.

Auch der Fukushima-Unfall, der die dramatischsten politischen Folgen in Deutschland (!) zeigte, war kein unvermeidbares „Naturereignis“. mit gleichem Reaktortyp. Das KKW liegt direkt an einer extrem erdbeben- und tsunamigefährdeten Küste, an der zwei Kontinentalplatten aufeinandertreffen. Obwohl Erdbeben mit größerer Stärke zu erwarten waren, wurden die japanischen KKW nur für eine Stärke 8,2 (Richter-Skala) ausgelegt. Trotzdem haben alle 52 KKW in Japan das Erdbeben der Stärke 9 schadlos überstanden und sind vorschriftsmäßig heruntergefahren. Dabei muss man wissen, dass ein Erdbeben der Stärke 9 dreißigmal mehr Energie freisetzt als eines der Stärke 8. Das spricht für große Sicherheitsreserven in der Konstruktion.

Das eigentliche Problem war allerdings nicht das Erdbeben, sondern der daraus folgende Tsunami. Es war bekannt, dass Tsunamis in der Gegend von Fukushima eine Höhe von mehr als 10 Metern erreichen können. Trotzdem hatte man die Tsunami-Schutzmauer nur 10 Meter hoch gebaut.

Durch den Tsunami von 13 m Höhe wurde die Energieversorgung für alle Kühlsysteme außer Betrieb gesetzt. Da die Reaktoren schon heruntergefahren war, musste nur die Restwärme von etwa drei Prozent der Nennleistung abgeführt werden. Sie entsteht durch Sekundärprozesse innerhalb der Brennstäbe.

Auch nach dem Stoppen der Kettenreaktion werden in den Brennstäben vom Uran radioaktive Zwischenelemente erzeugt, besonders Caesium- und Jod-Isotope. Dabei wird Wärme freigesetzt, die ohne Kühlung zu einer Schmelze der Brennstäbe führen kann. Die Brennstäbe bestehen aus Pellets von Uran-Oxid mit einem Schmelzpunkt von 3000 °C. Sie sind ummantelt von einem Rohr aus einer Zirkonoxid-Legierung, die Temperaturen bis 2200 °C widersteht. Wenn durch Verdampfen des Kühlwassers Teile der Brennstäbe freigelegt werden, erreichen diese schon nach 45 Minuten 2200°C. Kommen sie dann wieder in Berührung mit (neuem) Kühlwasser, entsteht durch Zerlegung von Wasser in Wasserstoff und Sauerstoff Knallgas. Um den Druck im Reaktorbehälter abzusenken, wurde Dampf in die Reaktorhalle abgelassen, wobei das Knallgas explodierte und die Reaktorhalle zerstörte, ohne allerdings den Druckbehälter des Reaktors selbst zu beschädigen.

Dennoch zögerte der private Betreiber, die Firma Tepco, den Reaktor mit Meerwasser zu kühlen. Man wollte eine Beschädigung des Reaktors vermeiden. Hätte man nur vier Stunden früher mit der Kühlung mit Meerwasser begonnen, wären die Brennstäbe nicht geschmolzen. Das geht aus einem Untersuchungsbericht der japanischen Atombehörde hervor. Man wollte also den Schaden so gering wie möglich halten und hat ihn dadurch am Ende doch nur vergrößert. Auch dieses Unglück war durch unzureichende Sicherheitsbestimmungen und menschliches Versagen verursacht. Hätte die Auslegung der japanischen Atommeiler gegen Naturgewalten dem hier üblichen Niveau entsprochen, dann „wäre es nicht zum Ausfall der Kühlung gekommen. Dann wären die Reaktorblöcke von Fukushima die einzig unbeschädigten Gebäude in einer vom Tsunami verwüsteten Trümmerlandschaft geblieben –und zu einem Symbol ganz anderer Art geworden.“ [1]

Dennoch kam in Fukushima kein einziger Mensch durch Strahlung zu Tode. Auch die Bewohner des Gebietes um das Kraftwerk sind nicht verstrahlt worden. Die in der Umwelt gemessene Strahlung ging innerhalb weniger Wochen auf ein Niveau zurück, bei dem Gesundheitsschäden ausgeschlossen sind [2]. Natürlich ist jeder Unfall einer zu viel, aber in den mittlerweile mehr als 11.000 Betriebsjahren westlicher Kernreaktoren ist kein einziger Mensch durch Strahlung umgekommen. Verkehr, Kohle, Öl und Chemie fordern jedes Jahr Tausende von Todesopfern.

Viele Menschen wollen mit einem noch so kleinen aber folgenreichen Restrisiko nicht leben. Für die gibt es Reaktoren, bei der Katastrophen durch menschliches Versagen ausgeschlossen sind. Einer ist der eigensichere in Deutschland entwickelte „Kugelhaufenreaktor“, der in Hamm-Uentrop gebaut worden war und der inzwischen in China weiterentwickelt wird. Dessen Sicherheit wurde in China durch eine bemerkenswerte Vorführung demonstriert [3]: Die Bedienmannschaft zog die Abschaltstäbe heraus, brachte also den Reaktor in einen unsicheren Zustand und schaltete die Kühlung ab. Dann konnte sie getrost in das nächste Restaurant gehen, denn der Reaktor stabilisiert sich selbst physikalisch in einem sicheren Zustand. Bei diesem Reaktor kann es grundsätzlich keinen GAU geben. Er verwendet zudem kein Uran, sondern das in großen Mengen verfügbare Thorium als Brennstoff, der nicht kernwaffentauglich ist. Hamm-Uentrop wäre als das Musterexemplar eines sicheren Reaktor gewesen. Aber der „Kugelhaufenreaktor“ wurde nach erfolgreichem Test unmittelbar nach dem Tschernobyl-Unglück aus politischen Gründen stillgelegt. Die Frage ist: Warum schaltet man ausgerechnet den einzigen eigensicheren Reaktor ab?

Die offizielle Begründung war, dass das Ökoinstitut Darmstadt in der Umgebung von Hamm-Uentrop eine erhöhte Strahlung feststellte. Wie sich später herausstellte, stammte diese aber vom Reaktorunglück in Tschernobyl. Aber die nicht überprüften Messungen eines Öko-Instituts genügten der Landesregierung von NRW, um aus politischen, genauer: ideologisch-populistischen Gründen den sichersten und zukunftsfähigsten Reaktor abzuschalten.

„Das Endlagerproblem ist nicht lösbar!“

Bei der Umwandlung von Uran in andere Elemente in Kernreaktoren entstehen radioaktive Stoffe, von denen viele schon nach 24 Stunden auf ein Zehntel des Ausgangs-Strahlungsniveau abfallen. Aber es bleiben auch langlebige Komponenten übrig, die z. T. über viele Jahrtausende strahlen. Sie müssen also sicher „endgelagert“ oder auf andere Weise unschädlich gemacht werden.

In keinem anderen Land wird derart emotional über dieses Thema diskutiert. Um sie auch dem letzten Bundesbürger einzuhämmern, wird die Behauptung „das Problem der Endlage-rung ist nicht lösbar“ wie ein Mantra ständig wiederholt. Der amerikanische Umweltaktivist  Steward Brand bietet folgende Möglichkeit an [4]: Mehr als 90% der Energie ist in den abgebrannten Brennstäben noch vorhanden. Man kann sie also aufarbeiten; und wenn dann die letzten Prozente Energie verbraucht sind, kann man die Brennstäbe am Ende vergraben. Brand schlägt hierzu vor: „Die Öl- und Gasindustrie bohrt problemlos drei Meilen tiefe Löcher. Darüber wird Beton gegossen, und das Ganze kann vergessen werden.“ In der Tat: Wenn die abgebrannten Brennstäbe 5000 oder 6000 Meter tief in der Erde vergraben (das ist die Hälfte der Erdkrustendicke!) und mit Beton versiegelt sind, dann kommen sie mit Sicherheit nicht mehr an die Erdoberfläche und verseuchen auch kein Grundwasser. Das ganze wäre zentral oder auch dezentral möglich, der Ort ist letztlich gleichgültig.

Aber es gibt eine bessere Methode der Entsorgung, nämlich die langlebigen radioaktiven Isotope in kurzlebige umzuwandeln. Diese Methode nennt man Transmutation und sie wurde 1992 von C. D. Bowman vom Los Alamos National Laboratory vorgestellt [5]. Dabei werden die radioaktiven Abfälle mit Neutronen bestrahlt und erreichen Halbwertzeiten von unter 100 Jahren, so dass ihre Radioaktivität innerhalb von weniger als 1000 Jahren auf das Niveau des natürlichen Urans abfällt. Dieser Zeitraum ist technisch übersehbar.

Da bei dem Vorgang der Transmutation dreißigmal so viel Energie frei wird wie zu dem Prozess notwendig ist, hat der Nobelpreisträger und langjährige Leiter des CERN Forschungszentrums in Genf, Carlo Rubbia, einen Transmutationsreaktor entwickelt, der Strom erzeugt und nebenbei die KKW-Abfälle entsorgt. Eine Pilotanlage soll 2015 in Betrieb gehen [6].

Fazit: Es gibt sichere Kernreaktoren und auch die Endlagerung wäre lösbar, wenn man es denn politisch wollte. Auch wenn man sich emotional schwer tun mag: Objektiv gesehen ist die Kerntechnik die sicherste Großtechnologie, die je eingesetzt wurde.

Von „Ja bitte! Zu Nein – Danke!

Die Kerntechnik hat in Deutschland den Ruf, extrem gefährlich zu sein. Aber sie ist nur ein Beispiel dafür, dass sich Deutschland von einem technikfreundlichen zu einem der  technologiefeindlichsten Länder der Welt entwickelt hat. Von der Gentechnik über den Transrapid bis zu Stuttgart 21: Es gibt keine Großtechnologie, die nicht von Bürgerinitiativen oder Umweltschützern bekämpft würde. So absurd es war, den sichersten Kernreaktor wegen eines Unfalls abzuschalten, der nichts aber auch gar nichts mit dem Reaktor in Tschernobyl zu tun hatte, so irrational war die Abschaltung von sieben deutschen Kernkraftwerken wegen eines absolut unvergleichbaren Unfalls in Fukushima. So schrieb Prof. Dr. Fritz Vahrenholt, der deutsche „Windenergiepapst“ und bestimmt kein Anhänger der Kernenergie zu Recht [7]: „Der Ausstieg aus der Kernenergie war ein typisch deutscher Kurzschluss. Klimapolitisch, geopolitisch und wirtschaftspolitisch ein schwerer Fehler“. Ganz offensichtlich geht es hier um ganz andere als sicherheitstechnische Fragen.

Um das zu verstehen, müssen wir uns die geistesgeschichtliche Entwicklung der letzten 40 Jahre in Deutschland ansehen. Denn hinter der gesellschaftlichen Entwicklung stehen immer geistige Strömungen. Dabei ist das auf den ersten Blick Paradoxe, dass ausgerechnet die Parteien, die dem Sozialismus nahe stehen und die immer für den technischen Fortschritt standen, diese extreme Kehrtwendung von „Technik ja, bitte“ zu „Technologie Nein danke!“ vollzogen haben.

Der geistige Ursprung lässt sich schnell bei den Vordenkern der neomarxistischen Frankfurter Schule verorten. Erich Fromm, einer der meistgelesenen Autoren der 70er Jahre kommt zu folgendem Ergebnis: „Die Trias von unbegrenzter Produktion, absoluter Freiheit und uneingeschränktem Glück bildeten den Kern der Fortschrittsreligion, und eine irdische Stadt des Fortschritts ersetzte die ‚Stadt Gottes’“ [8]. Mit der Industrialisierung und der Demokratisierung wurden die Menschen immer freier und der Wohlstand schien keine Grenzen mehr zu kennen. Dann kam 1972 der Bericht des “Club of Rome”. Seine Kernaussagen lauteten: Unsere Ressourcen sind begrenzt, und wir sind dabei, speziell auch mit der Atomkraft, unsere eigene Existenz zu gefährden. Es herrschte damals der „Kalte Krieg“. Amerikaner und Russen, waren hochgerüstet mit Atomwaffen. Es war in der Tat eine explosive Situation. Erich Fromm fand die Ursache dieser Entwicklung in der schon erwähnten „Fortschrittsreligion [9]: „Hinter der christlichen Fassade entstand eine neue geheime Religion, nämlich die Religion des Industriezeitalters. Seite an Seite mit dem Humanismus hat sich ein neues Heidentum entwickelt, das uns in diesem Augenblick der Geschichte zu vernichten droht.“

Der Bericht des Club of Rome löste bei den linken Intellektuellen einen regelrechten Schock aus. Die Vordenker der neomarxistische Frankfurter Schule schalteten um von Fortschritt auf Technikfeindlichkeit, um die physische Vernichtung der Menschheit zu verhindern. „Zum ersten Mal in der Geschichte hängt das physische Überleben der Menschheit von einer radikalen seelischen Veränderung des Menschen ab“ [10]. Die Aufgabe war also, die Menschen dazu zu bringen, ihr Denken radikal zu verändern. Sozialisten können sich Veränderung gemäß ihrer Milieutheorie „Das Sein schafft das Bewusstsein“ nur über die Veränderung der gesellschaftlichen Verhältnisse vorstellen. Also ist „dieser Wandel im ‚Herzen’ des Menschen“ nur in dem Maße möglich, in dem drastische ökonomische und soziale Veränderungen eintreten.

Der zweite Denker, der dieser Entwicklung einen entscheidenden Impuls gegeben hat, war Hans Jonas mit seinem Buch „Das Prinzip Verantwortung“, das primär eine Antwort auf das  „Prinzip Hoffnung“ von Ernst Bloch war. Bisher hatte die sozialistisch Idee von der Hoffnung gelebt. Aber durch den „real existierenden Sozialismus“ und dessen späteren Zusammenbruch war von dieser Hoffnung nichts mehr geblieben. So schrieb Hans Jonas [11]: „Dem Prinzip Hoffnung stellen wir das Prinzip Verantwortung gegenüber, nicht das Prinzip Furcht. Wohl aber gehört die Furcht zur Verantwortung so gut wie die Hoffnung. Nicht die vom Handeln abratende, sondern die zu ihm auffordernde Furcht“. Im Klartext bedeutete das: Wenn es keine Hoffnung mehr gab, so blieb nur noch die Furcht als Motivation um Menschen zu mobilisieren. Der Berliner Medienwissenschaftler Norbert Bolz brachte es auf den Punkt [12]: „Das ‚Prinzip Verantwortung’ ist im Kern eine Ethik der Furcht vor unserer eigenen Macht. Eine Angstkultur soll das naturwissenschaftlich-technische Wissen der Gegenwart vermenschlichen. Die Furcht wird zur ersten Bürgerpflicht – nicht mehr die Furcht des Herrn, sondern die Furcht des Menschen vor sich selbst.“ Das war die große Wende in den 70er Jahren von der „Fortschrittsreligion“ zu einer „Furchtreligion“. Altbundeskanzler Helmut Schmidt schrieb [13]: Viele der heutigen Angstmacher haben sich vor zwanzig Jahren von der Katastrophen-Prognose des Club of Rome inspirieren lassen. (…) Die durch frühe Unheilsprognosen geschürte Angst hat bei uns eine weitverbreitete Aversion gegen fast alle technologischen Entwicklungen ausgelöst.“

Diese Furcht wurde von den 68ern bei ihrem „Marsch durch die Institutionen“, speziell durch die Medien systematisch geschürt. Heute vertritt eine Mehrheit der Journalisten ökosozialistische Ansichten. Der Medienwissenschaftler Professor Hans Wagner schieb dazu [14]: „Publizistisch ausgelöste Angst soll die Gesellschaft zur Veränderung bewegen, deren Richtung von den Publizisten vorgegeben wird. Angst ist eine wesentliche und bezweckte Folge der Desinformation.“ Wir müssen also davon ausgehen, dass das, was wir heute über Umweltrelevante Themen in den Medien erfahren, nicht objektive Information ist, sondern der Erzeugung von Angst dient.

Früher war es ein journalistisches Prinzip, objektive und neutrale Information weiterzugeben. Wenn ein Kommentar geschrieben wurde, hat man ihn als solchen deutlich gekennzeichnet. So konnte der Leser ihn von der neutralen Berichterstattung unterscheiden. Heute gibt es diesen Unterschied kaum noch. Wir sehen zunehmend einen „Gesinnungsjournalismus“, bei dem Meinung als Information „verkauft“ wird. „Weit über 50% der Medienschaffenden fühlen sich dazu berufen, die Welt nach ihren – vorwiegend linken – Überzeugungen darzustellen. Publizistische Parteilichkeit führt aber immer zur Desinformation. Die Leser nehmen diese Desinformation auf wie Information, da sie meist keine Möglichkeit haben, diese durch eigene Erfahrungen zu überprüfen oder zu korrigieren“ [15]. Speziell bei komplexen Zusammenhängen wie der Energietechnik oder der Gentechnik hat der normale Mensch keine Möglichkeit, zu unterscheiden, was richtig oder was falsch ist. Er dieser Desinformation ausgeliefert, zumal sich hier schon fast ein Meinungskartell gebildet hat.

Desinformation als Methode der Verunsicherung

Mit der ersten rot-grünen Regierung erhielt die Ökobewegung Gesetzesmacht. Um die Gefahr von Kernkraftwerken auch dem letzten Bundesbürger einzuhämmern, wurden die Kernkraftwerksbetreiber per Gesetz verpflichtet, alle Betriebsstörungen zu melden, auch wenn sie keine Gefahr darstellten oder nichts mit Kernkraft zu tun hatten. Damit wurde sehr geschickt sichergestellt, dass über undifferenzierte Medienberichte „Kernkraft“ mit „Störfall“ assoziiert wurde. Dass es eine internationale Störfall-Skala von 1 bis 10 gibt, in der kernkraftrelevante Störungen kategorisiert wurden, interessierte die Medien nicht. Denn bei den wenigen „echten“ Störfällen kam kein deutsches Kernkraftwerk über die Stufe 2, die unterhalb des Bereiches liegt, bei dem Menschen durch Strahlung gefährdet sind. Seriöse Fachleute, die diesem Trend anfangs noch widerstanden, wurden als Industrielobbyisten diffamiert und zogen sich weitgehend resigniert zurück. Wolfgang Clement, einer der wenigen Sozialdemokraten, die sich gegen diese Desinformationskampagne aufgelehnt hatte, schrieb [16]: „Ist es etwa nicht wahnwitzig, einen Reaktor wegen der Erneuerung von Dübeln, die nichts, aber auch gar nichts mit Sicherheit zu tun haben, monatelang stillzulegen? Mit Kampfbegriffen wie ‚Gefährdungsreaktoren’ und dem populistischen Ausschlachten schlichtester ‚Pannen’ betreibt die Bundesregierung eine beispiellose Verteufelungskampagne gegen die Nutzung der Kernenergie.“ Man muss sich einmal klarmachen, welche ideologische Verblendung und Skrupellosigkeit dazu gehört, als Minister, der einen Amtseid auf das Wohl des deutschen Volkes geschworen hat, dieses Volk regierungsamtlich und wider besseres Wissen irrezuführen.

Auch für das Problem der Endlagerung hatten die ökosozialistischen Umweltminister eine sehr einfache Methode: Fordere einfach Unmögliches, dann ist das Endlagerproblem nicht mehr lösbar! Zunächst beschloss man ein Moratorium. „Das war nichts als Verzögerungs-taktik, die uns Milliarden von Euro gekostet hat“ [17]. Dann forderte man, das Endlager müsse für mindestens eine Million (!) Jahre sicher sein [18], wohl wissend, dass kein Wissenschaftler auf der Welt dies garantieren konnte, denn die menschliche Kulturgeschichte ist gerade mal 6000 Jahre alt. Dass es andere Methoden der Entsorgung gab, wurde selbstverständlich ignoriert.

Das Aus für die Kernkraft bildete schließlich die Berichterstattung über Fukushima, wo im deutschen Fernsehen fast ausschließlich „Experten“ von Ökoinstituten oder Greenpeace zu Wort kamen. Natürlich übertrieben sie systematisch die Risiken, nannten große Zahlenwerte (1000 Nanogramm klingen viel gefährlicher als ein Mikrogramm) von Dimensionen, die niemand einordnen konnte. Und man nutzte die Unfähigkeit von normalen Menschen, Risiken angemessen zu bewerten. Der Statistik-Professor Walter Krämer schrieb dazu [19]: „Wer weiß schon, dass Piercing erwiesenermaßen riskanter ist als Atomkraft?“

Durch die bewusst erzeugte Angst wurde die Diskussion von der sachlichen auf eine emotionale Ebene gehoben. Ob bei Gentechnik, bei Tierversuchen oder bei der Kerntechnik heißt es heute [20]: „Was interessieren mich Zahlen und Statistiken? Wie kann man so kalt über ein so wichtiges Thema reden! Experten finden keine Gesprächsebene, sich rational mit den Bedenken der Laien auseinander zu setzen. Die Angst ist immer und überall. Man kann ohne Zweifel von einer deutschen Angstpsychose reden: „Wir haben Angst vor der Atomkraft, deshalb schalten wir die Atomkraftanlagen ab. Wir haben gleichzeitig Angst vor der globalen Erwärmung, darum ängstigen uns auch Kohlekraftwerke. Also bauen wir Windparks. Weil die Windparks weit weg von den Stromverbrauchern sind, brauchen wir neue Hochspannungsleitungen. Aber weil sie Angst vor Elektrosmog haben, ziehen die gleichen Bürger gegen die Leitungen zu Felde [21].

Die Mega-Angst: Klimakatastrophe

Der Zukunftsforscher Matthias Horx schrieb [22]: „Gegen die Kathedrale der Klima-katastrophe sind alle bisherigen Angstepidemien kleine Kirchlein.“ Denn jetzt geht es um die Rettung der Welt. Ein erster Warnruf lautete [23]: „Kölner Dom unter Wasser“. Diese Meldung wurde von Deutschen Physikalischen Gesellschaft (!) verbreitet, um der Atomkraft weiterzuhelfen. Man müsse Atomkraftwerke bauen, um zu verhindern, dass durch die den CO2-Ausstoß der Kohlekraftwerke der Meeresspiegel um 40 Meter steigt. Doch der Schuss ging nach hinten los, denn nun hatte die Ökobewegung ihr Mega-Thema. Allerdings fiel der Meeresspiegel dann kontinuierlich: Etwas vorsichtiger prognostizierte die Weltklima-Organisation IPCC (Intergovernmental Panel on Climate Change) im Jahre 2000 einen Anstieg des Meeresspiegels von 13 Metern. Der gescheiterte Präsidentschaftskandidat Al Gore prognostiziere in seinem Buch „Die unbequeme Wahrheit“ noch 6 Meter. Der letzte UN-Klimabericht des IPCC (2007) prognostizierte nur noch 19–59 cm Anstieg des Meeresspiegels pro Jahrhundert. Satellitenmessungen zeigen heute 30 cm pro Jahrhundert, die größtenteils auf die Ausdehnung des Wassers durch leichte Erwärmung zurückzuführen sind.

An diesem Beispiel sieht man, wie Katastrophenmeldungen „erzeugt“ werden. Matthias Horx schrieb als Insider dazu: „Ich habe in meiner Zeit als Journalist gesehen, wie man mit wenigen geschickten Übertreibungen Themen regelrecht ‚machen’ konnte – und wie andere davon abschrieben und noch eins draufsetzten. Die schrillen Übertreibungen scheinen stets durch die hehre Absicht legitimiert: Wer warnt, hat ja in gewisser Weise immer Recht“ [24].

Das IPCC war 1988 gegründet worden, um Forschungsergebnisse für Politiker aufzuarbeiten. Heute hat macht es selbst Politik: „Der IPCC-Vorsitzende Rajendra Pachauri spricht mittlerweile wie der Chef einer Aktivisten-Organisation, der die Öffentlichkeit ‚schockieren’ möchte“ [25]. Das IPCC hat eine exponentiell anwachsende Erderwärmung vorausgesagt. Die tatsächlichen Messungen zeigen, dass es in den letzten zehn Jahren keine nennenswerte Erwärmung gab. Das IPCC stützt sich auf Wissenschaftler, aber wir haben heute nicht nur einen Gesinnungsjournalismus, sondern auch eine Gesinnungswissenschaft: „Die neue ‚Post Normal Science’ orientiert sich nicht mehr an auf experimentellem Wege gewonnenen reproduzierbarem nützlichen Wissen, sondern an neuen Leitbildern wie ‚Klimaschutz’, ‚ökologische Nachhaltigkeit’ oder ‚soziale Gerechtigkeit’“ [26]. Im Zusammenhang mit angeblichen Leukämiefällen in der Nähe von Kernkraftwerken schrieb der Strahlenbiologe  Horst Jung [27]: „Professoren benutzen ihren Titel, um Politik zu machen. Es ist ein Ärgernis, dass diese Außenseiter in den Medien mehr Resonanz finden als 1000 seriöse Wissenschaftler.“ Die ökologisch ausgerichteten Forscher setzen voraus, dass es eine Klimakatastrophe gibt, und deshalb dienen ihre Forschungen nur noch dazu, das zu untermauern, was sie ohnehin glauben. „So hat sich in der westlichen Welt eine Ökumene der Ängstlichen formiert, die Schützenhilfe von engagierten Wissenschaftlern bekommt. Gerade beim Thema Global Warming präsentieren sich viele Wissenschaftler als Glaubenskrieger. Zu deutsch: Man findet immer, was man erwartet. Und immer ist es Fünf vor Zwölf“ [28]

Die Katastrophenlogik der Politik

Die Politik nutzt die Katastrophenmeldungen für ihre Zwecke und ist inzwischen gefangen in der Eigendynamik des Klima-Dogmas. „Inzwischen ist das Paradigma vom anthropogenen Klimawandel nicht nur mächtig geworden, es stattet auch mit Macht aus: Mit Wählerstimmen, öffentlicher Aufmerksamkeit, akademischer Reputation, Geld und Positionen. Es darf gar nicht mehr falsch sein! Der Zug ist abgefahren und in ihm sitzen viele Wissenschaftler und Politiker, für die es kein Zurück mehr gibt [29]. Die einfache und plausible Logik, um ihre Politik zu vertreten lautet: „Klimamodelle sagen eine kräftige Erwärmung voraus. Wir können es uns nicht leisten, diese Vorhersagen in Frage zu stellen. Denn wenn sie stimmen, stellt das für die Welt eine ungeheure Katastrophe dar. Deswegen müssen wir jetzt sofort handeln“ [30]. Die meisten Klimaforscher fühlen sich eher instrumentalisiert als ernst genommen: „Es gibt gute Gründe für den Klimaschutz, aber bei den einzelnen Maßnahmen handelt es sich letztlich um politische Entscheidungen, die mit Wissenschaft eher bemäntelt als begründet werden“ [31]. Man benutzt also die Wissenschaft, um politische Entscheidungen gleichsam mit einem wissenschaftlichen Mantel zu legitimieren.

Hauptaussage der IPCC-Klima-Modelle ist ein immer stärkerer Temperaturanstieg, der durch den Ausstoß von Treibhausgasen verursacht und damit menschengemacht sei. Um dem entgegenzuwirken muss die Welt auf eine CO2-freie Energieerzeugung umgestellt werden, (wobei die CO2-freie Kernkraft aus den genannten ideologischen Gründen in Deutschland natürlich tabu ist).

Was ist dran an der Behauptung? Es ist nicht so einfach, sich über die sog. Klimakatastrophe Klarheit zu verschaffen, weil es die Gesinnungswissenschaftler auf beiden Seiten gibt. Eine Irreführung war die sogenannte „Hockey-schläger-Kurve“, die vom IPCC entwickelt wurde. Sie zeigt eine weitgehend konstante Erdtemperatur, die mit der Industrialisierung um 1850 plötzlich immer steiler ansteigt. In diesem Temperaturverlauf fehlen allerdings sowohl die hohen Temperaturen der Warmzeit um 1000 n. Chr. als auch die tiefen Temperaturen der kleinen Kaltzeit. Dazu kommt, dass eine Hockeyschlägerkurve immer dann erscheint, wenn ein falscher Algorithmus auf die Daten angewendet wird. So wurde durch diese manipulierte Kurve der Eindruck einer konstanten Erdtemperatur erweckt, die seit der Industrialisierung urplötzlich aus dem Ruder läuft. [32] Die Bezugstemperatur am Beginn der Industrialisierung war allerdings abnormal niedrig, weil sie am Ende einer kleinen Kaltzeit lag, nach der die Temperatur ohnehin wieder angestiegen wäre. Dennoch – oder gerade deswegen? – wurde die Temperatur zu diesem Zeitpunkt als die „richtige“ Erdtemperatur festgelegt und der Anstieg danach als anthropogen und durch die Industrialisierung verursacht deklariert.

Aber was ist die „richtige“ Erdtemperatur? Es gibt keinen naturwissenschaftlich-sachlichen Grund, die Talsohle nach der letzten Kaltzeit als das beste aller Klimata festzulegen. Josef Reichholf, selbst Umweltwissenschaftler, stellt fest [33]: „Der willkürlich gewählte Ausgangspunkt liefert die einzige Begründung, warum das CO2 in den Brennpunkt gerückt werden muss.“ Dass der größte Teil des Temperaturanstiegs eine natürliche Ursache hatte, weil die kleine Kaltzeit zu Ende war, hat man dabei schlicht unterschlagen.

Verursacht das CO2 einen Klimawandel?

Einige Fakten zum Treibhauseffekt: Beim Gleichgewicht von Energiezufuhr aus Sonnenstrahlung und Energieabgabe durch Abstrahlung in den Weltraum würde die Temperatur der Erde ohne Atmosphäre -18 °C betragen. Tatsächlich beträgt sie + 15 °C. Die Differenz von 33 °C bewirkt der „natürliche“ Treibhauseffekt [34]. Diesen Treibhauseffekt kann man selber leicht nachvollziehen. Wolkenloser Himmel heizt die Erde bei Tag schneller auf, und kühlt sie bei Nacht schneller ab. Bei Bewölkung ist es am Tag kühler, in der Nacht wärmer. Der natürliche Treibhaus-Effekt ist notwendig, weil wir sonst alle erfrieren würden.

Betrachten wir die Entwicklung des CO2-Gehalts in der Luft, so zeigt sich, dass er während des größten Teils der Erdgeschichte weit über dem heutigen lag. In dem von den seriösen drei deutschen Geowissenschaftlichen Instituten herausgegebenen Buch über „Klimafakten“ wird sehr deutlich festgestellt, dass es keine enge Korrelation zwischen Erdtemperatur und COgibt: „Mal läuft die Temperatur voraus und das CO2 steigt Millionen Jahre später. Mal steigt das CO2 und die Temperatur hinkt Millionen Jahre nach. Mal steigt die Temperatur und das CO2 sinkt zur gleichen Zeit“ [35].

Dennoch gibt es einen berechenbaren Einfluss des CO2 auf die Erdtemperatur. Die Worst-Case-Szenarien gehen von einer Verdoppelung des CO2-Gehaltes in der Atmosphäre auf ca. 800 ppm aus, wenn alle nachgewiesenen fossilen Brennstoffe vollständig verbrannt würden [36]. Dies ist auch deshalb die oberste Grenze des CO2-Gehaltes in der Luft, weil weiteres CO2 von den Ozeanen absorbiert würde, die oberhalb dieser Konzentration eine unendlich große Senke für CO2 darstellen. Eine weitere Steigerung über 800 ppm wäre also auch bei weiterer Verbrennung (von nicht vorhandenen) fossilen Brennstoffen nicht realisierbar.

Alle Forscher sind sich einig, dass eine Verdoppelung des CO2-Gehalts in der Atmosphäre bei Verbrennung aller fossilen Brennstoffe auf ca. 800 ppm die Erdtemperatur um grob 1 °C erhöhen würde. [37] Eine weitere Verdoppelung würde im übrigen wegen des logarith-mischen Zusammenhangs von CO2 und Temperatur diese nur um 0,4 – 0,6° C steigern. Der eigentliche Streitpunkt ist die Frage nach der Wechselwirkung des CO2 mit dem Wasserdampfhaushalt. Denn Wasserdampf ist für 75% des Treibhauseffekts verantwortlich. Das IPCC nimmt eine verstärkende Wechselwirkung an und rechnet mit einer Erwärmung von bis zu 6°C („Klimakatastrophe“), die man durch CO2-Reduzierung auf 2°C begrenzen müsse. Dies erscheint aber zunehmend zweifelhaft.

Es gibt Untersuchungen (die erste aus dem Jahre 2001), in die darauf hindeuten, dass durch den Wasserdampf die Wirkung des CO2 nicht verstärkt sondern abgeschwächt wird. Richard L. Lindzen (MIT) und Yong-Sang Choi wiesen eine Gegenkopplung nach und konnten sie zudem quantifizieren. [38]. 2009 fanden auch G. Paltridge et al. Hinweise auf eine Wasserdampf-Gegenkopplung. [39]. Damit ergäbe sich im worst case bei Verdoppelung des CO2 eine maximale Temperaturerhöhung von nur noch 0,5 °C  statt der 6 °C des IPCC [40].

Das „menschengemachte“ CO2 hat nach allem, was wir wissen, eine untergeordnete Bedeutung für die Erdtemperatur und das Klima. Es gibt viel signifikantere Einflüsse als die CO2 Emissionen. So stellt Josef H. Reichholf fest [41]: „Katastrophen gehen von der Landnutzung aus, nicht vom CO2 oder vom Anstieg der Durchschnittstemperaturen. Wenn Jahr für Jahr Grasland in der Größe von ganz Australien abgebrannt werden, nur um den Graswuchs für Rinder zu stimulieren, beeinflusst dies mit Sicherheit den Naturhaushalt mehr als ein paar Zehntelgrade Mitteltemperatur.

Ist das Klima überhaupt vorhersagbar?

Das Klima ist ein sehr komplexer Zusammenhang. Nicht nur das CO2 hat darauf Einfluss, sondern auch viele andere Faktoren. Wenn man nur die Treibhausgase einbezieht, erhält man eine viel zu hohe Temperatur. Staubpartikel in der Luft bewirken eine niedrigere Erwärmung der Erde. Ein – natürlich nicht vorausberechenbarer- Vulkanausbruch bläst so viel Asche in die Luft, dass es kurzfristig zu einer „kleinen Eiszeit“ kommen kann. Wenn man den Einfluss der Aerosole in die Klimamodelle einbezieht, erhält man eine Temperatur, die unterhalb dessen liegt, was wir messen. Erst wenn auch noch die Wirkung der Sonne berücksichtigt wird, erhalten wie realistische Werte. Die Sonne hat einen zweifachen Einfluss: Sie strahlt Energie auf die Erde, und man kann ausrechnen, wie diese sich mit dem Abstand Sonne-Erde die Einstrahlung von Energie verändert. Hier ergibt sich ein 400-Jahres-Zyklus von Warm- und Kaltzeiten. Die direkte Sonneneinstrahlung erreicht im Jahr 2045 ein Maximum, danach nimmt sie wieder ab. Die Polkappen wirken dabei als Kältepuffer. Es bricht immer wieder Eis ab, was zur Abkühlung führt und flacht die Maxima ab [42]. Darum geht die Kurve der Erderwärmung nicht linear nach oben, sondern in Stufen. So könnte man erklären, dass im laufenden Jahrzehnt die globalen Temperaturen keinen Trend mehr nach oben zeigen [43].

Aber auch die „Sonnenaktivität“ (Sonnenflecken und Eruptionen), auf die man lange Zeit gar nicht geachtet hatte, wirkt sich stark auf die Erdtemperatur aus. Sie hat offenbar einen viel größeren Einfluss auf die Temperatur als das CO2 [44]. Sieht man sich die Kurven der Sonnenaktivität und der Erdtemperatur an, so gibt es zwischen diesen beiden Größen eine starke auch kurzzeitige Korrelation, während die Temperatur mit dem CO2-Gehalt kurzzeitig kaum korreliert. Der starke Einfluss rührt daher, dass der Partikelstrom von der Sonne eine Ionisierung von Luftmolekülen bewirkt wird, die ihrerseits Kondensationskeime für die Kondensation des unterkühlten Wassergases bilden und damit zur Wolkenbildung führen. Kondensstreifen von Flugzeugen entstehen auf ähnliche Weise, weil auch Rußpartikel aus den Triebwerken als Kondensationskerne wirken, an denen das Wassergas kondensiert. Kosmische Strahlung und Wolkenbedeckung korrelieren erwartungsgemäß sehr gut. Die Wolkenbildung ist noch wenig erforscht, aber sie hat bei weitem den größten Einfluss auf die Erdtemperatur. Wolken können die Temperatur sowohl erhöhen als auch senken, je nach dem zu welcher Tageszeit und in welcher Höhe sie entstehen. Entscheidend ist dabei: Bereits drei Prozent in der Veränderung der Wolkenbedeckung, verursacht durch die Sonnenaktivität, haben größeren Einfluss auf das Klima als das gesamte CO2. [45].

Da aber weder die Vulkantätigkeit noch die Sonnenaktivität, also die größten Einflüsse auf die Erdtemperatur, vorhersagbar sind, läuft die Klimavorhersage de facto auf einen Langzeit-Wetterbericht hinaus. Dass das Wetter auf Grund seiner Chaos-Struktur – auch ohne die kosmischen Einflüsse – langfristig grundsätzlich nicht berechenbar ist, hat schon der Meteorologe Edward Lorenz herausgefunden, was er mit seinem berühmten Ausspruch „Der Flügelschlag eines Schmetterlings beeinflusst die Großwetterlage der nächsten Tage“ illustriert hat. Der Zukunftsforscher Matthias Horx stellt daher zu Recht fest: „Als Systemanalytiker bin ich zu der Überzeugung gekommen, dass sich das Klima nicht wirklich voraussagen lässt. Unsere Megacomputer reichen nicht einmal aus, Regen und Sonnenschein für Kleindettelshausen in sieben Tagen vorauszusagen“ [46]. Wie also wollen wir das Klima über Hunderte von Jahren voraussagen?

Wie man Menschen emotional manipuliert

Weil man weiß, dass man die Menschen mehr über Emotionen als über Fakten als beeinflussen kann, darf im Fernsehen, wenn es um Klimaschutz geht, der Eisbär nicht fehlen: „Anhand der Eisbären lassen sich die Tricks der Klimadebatte beispielhaft erklären: Die Eisbären, heißt es, werden weniger. Das Gesamtbild sieht so aus: In den 60ern gab es 5000 Exemplare, heute 25.000“ [47]. Ähnlich ist es mit den Gletschern. In den Schweizer Zentralalpen gab es in den vergangenen 10.000 Jahren acht ähnliche Rückzugsphasen der Gletscher, teilweise über den heutigen Stand hinaus. Die Alpenübergänge waren mehrfach eisfrei, z. B. als Hannibal nach Italien marschierte [48]. Auch die Elbflut vor einigen Jahren wurde emotional instrumentalisiert. Gerhard Schröder trat damals fernsehwirksam in Gummistiefeln vor die Kameras und meinte: „Der Klimawandel ist keine prognostische Vermutung, er ist eine bittere Realität.“ Joschka Fischer assistierte ihm: „Hier sieht man deutlich, wie lang die Bremsspuren der Natur sind!“ [49]. Das klang sehr überzeugend.

Die Wahrheit sieht allerdings anders aus. Das Fazit einer Auswertung der Überschwem-mungsereignisse von Elbe und Oder bis ins 11. Jhd. des Klimaforschers Manfred Mudelsee vom Institut für Meteorologie in Leipzig in der renommierten Zeitschrift „Nature“ lautete [50]: „Extreme Hochwasser in Zentraleuropa sind nicht häufiger geworden. Eher im Gegenteil. In den letzten 150 Jahren sind die beiden großen Ströme sogar milder geworden. Wenn überhaupt, wirkt sich die globale Erwärmung eher positiv auf die Hochwasserlage in der Region aus

Die Klima-Politik-Katastrophe

Mehr als 98% des CO2-Ausstoßes sind naturbedingt, also weniger als 2% von Menschen verursacht [51]. Zu diesen 2% weltweit trägt Deutschland etwa 3% bei. Der deutsche Beitrag zur weltweiten CO2-Emission beträgt also nicht einmal ein Promille. Selbst wenn wir alle fossilen Kraftwerke und Industrieanlagen abschalten, nicht mehr heizen und den gesamten Verkehr still legen: Das Klima würde so gut wie nichts davon merken.

Nun spricht nichts dagegen, möglichst schonend mit unseren fossilen Ressourcen umzugehen und nebenbei auch möglichst viel CO2 einzusparen. Aber dann müsste man doch mit dem eingesetzten Geld eine möglichst große Einsparung erreichen. Den Maßstab liefert das „Clean Development Mechanism“ (CDM): Ein Emittent aus der EU darf in einem Schwellen- oder Entwicklungsland eine Vermeidungsaktivität finanzieren und die eingesparte Menge so anrechnen, als hätte er sie in der EU vorgenommen. In diesem Falle würde die Vermeidung einer Tonne CO2 20 € kosten.

Die EU hat Vorschriften für den Verkehr erlassen, bei denen die Vermeidung einer Tonne CO2 300 € kostet. Noch teurer ist die CO2-Vermeidung nach dem Energie-Einspeisungs-Gesetz (EEG). Am höchsten liegen die Vermeidungskosten bei der Photovoltaik, die mit etwa 800 €/t CO2 die unwirtschaftlichste Methode ist. Sie erhält die Hälfte aller Subventionen für regenerative Energien. Dass dies weniger mit effizienter CO2-Vermeidung zu tun hat als mit Lobbyismus, ist offensichtlich [52]: „Ausgerechnet in Deutschland, nicht für blauen Himmel und Sonne bekannt, ist fast die Hälfte der weltweit vorhandenen Solarpanele installiert. Alleiniger Grund: 120 Mrd. € Subventionen. Ein stolzer Preis, wenn man bedenkt, dass Photovoltaik immer nur noch etwa 1,8 % des deutschen Stromverbrauchs deckt“. Auch der zur CO2-Reduktion eingeführte EU-Emissionshandel bestraft letztlich Länder wie Deutschland, die sich als Vorreiter des Klimaschutzes sehen. Denn vorgegeben werden nur die Gesamtemissionen in Europa. Alles was wir einsparen, dürfen andere Länder mehr emittieren.

Das eigentliche Problem aber liegt an der Planlosigkeit der „Energiewende“. Der jetzt bei eon für regenerative Energien zuständige „Windpapst“ Fritz Fahrenholz schreibt [53]: „Das ist das Dilemma der vermeintlich ergrünten Energiepolitik: Ihr fehlt es an Planungsintelligenz, vor allem an einer Idee davon, wie ein kosteneffizientes Gesamtsystem klimaverträglicher Energieversorgung aussehen könnte“. Im Klartext: Man baut ohne jedes Gesamtkonzept und ohne Anbindung an die Ballungsgebiete Wind- und Photovoltaikanlagen, wobei völlig offen ist, wie die Grundlast bei Windstille ohne fossile Kraftwerke sicher gestellt werden kann (die Photovoltaik spielt in keinem der Zukunftsszenarien eine Rolle). Da man überhaupt noch kein Konzept für eine Speicherung der Windenergie hat, werden als „Brückentechnologie“ erst einmal Gaskraftwerke gebaut.

Es gibt derzeit nur zwei halbwegs wirtschaftlich sinnvolle Optionen: Pumpspeicher-Kraftwerke und die Umwandlung von elektrischer Energie in Wasserstoff oder Methangas und deren Einspeisung in das  Erdgasnetz mit seinen ausreichend großen Kavernen. Für Pumpspeicherkraftwerke gibt es in Deutschland viel zu wenige Standorte. Und wenn dann tatsächlich eines gebaut werden soll wie jetzt im Schwarzwald, so wird das Projekt durch Umweltaktivisten be- oder verhindert. Norwegen hätte die Kapazität, aber es gibt auch dort Umweltbewegungen, die alle Hochspannungsleitungen verhindern. Eine unterirdische Verlegung aller Leitungen und der Aufbau einer Kraftwerkskapazität, um notfalls ganz Deutschland zu versorgen, würden Investitionskosten in unabsehbarer Höhe verursachen. Der Wirkungsgrad der Windkraft würde zudem durch die Pumpspeicher und die Leitungsverluste um 30-40% sinken und den Strom entsprechen verteuern. Man könnte überschüssigen Strom aus Windkraft durch Elektrolyse in Wasserstoff verwandeln. Durch die Rückwandlung des Wasserstoffs in Gas-Kraftwerken sinkt jedoch der Wirkungsgrad um 60%. Der „Speicherstrom“ wäre also –ohne die Investitionskosten- mehr als doppelt so teuer wie der ursprüngliche Windstrom. Bei Umwandlung in Methangas ergäbe sich ein noch schlechterer Gesamtwirkungsgrad von nur noch 30%. Der „Speicher“-Strom wäre dann mehr als dreimal so teuer wie der ohnehin nicht billige Windstrom.

Eine kleine Posse am Rande: Bis 2030 sollen etwa 36 neue Kernkraftwerke in Russland entstehen. Sie ersetzen die russischen Gaskraftwerke, damit Russland das KKW-freie Deutschland mit Gas für seine neu zu errichtenden Grundlast-Gaskraftwerke beliefern kann [54].

Der Umbau der Energieversorgung einschließlich der Entsorgung der KKW, des Baus neuer Leitungstrassen, einer „Brückentechnologie“ aus neuen Gaskraftwerken und der Errichtung von regenerativen Kraftwerken mit den notwendigen Energiespeichern bedeutet einen gigantischen Investitionsaufwand. Wenn man bedenkt, dass uns allein die Photovoltaik etwa 200 Milliarden Euro kosten wird, dann dürften die Gesamtkosten in der Größenordnung von einer Billion Euro liegen. Bei der ohnehin gigantischen Staatsverschuldung ist dies eine weitere Last, die wir ohne Not unseren Kindern und Enkeln aufbürden.

De facto ersetzen wir mit einem gewaltigen Investitions- und Subventionsaufwand billige zuverlässige Energie durch teure unzuverlässige, ohne den globalen CO2-Ausstoß merklich zu senken. Schon heute ist Deutschland Spitzenreiter im Industriestrompreis. Mit den hohen Strompreisen vertreiben wir die energieintensive Industrie, die anderswo bei niedrigeren Umwelt-Standards neu aufgebaut wird. Dabei ist durchaus offen, ob wir mit der Energie-wende wirklich neue Chancen zu Wachstum eröffnen und die Arbeitsplätze ersetzen können, die wir durch die Folgen der hohen Strompreise verlieren. Das Beispiel der Photovoltaik zeigt, dass wir mit unseren Subventionen vor allem den Produzenten in Asien auf die Sprünge geholfen haben. Die Zukunft könnte also ganz anders aussehen als uns die Politiker ausmalen. Christian Bartsch schrieb [55]: „Vor allem die deutschen Regierungen begannen, die Wirtschaft des Landes “nachhaltig ökologisch“ auszurichten. Das wird eine stete Verarmung der heute noch reichen Industrieländer mit Deutschland als Vorreiter zur Folge haben.“

Unsere Energiepolitik hat mit Rationalität so gut wie nichts mehr zu tun. Ist Deutschland also wirklich Vorreiter, oder doch eher Geisterfahrer? Die Mehrheit der deutschen Klimaforscher lehnt eine Politik ab, die auf eine Verhinderung des Klimawandels fixiert ist, weil er möglicherweise nicht aufzuhalten ist. Sie plädiert für eine Politik, die auf Maßnahmen zum Schutz vor seinen Folgen ausgerichtet ist [54]. Der Philosoph Rüdiger Safranski beklagt [56]: „In Deutschland fehlt eine politische Kultur, wie sie der Westen hervorgebracht hat. Ein auf Realismus und praktischer Klugheit und Weltläufigkeit gründender politischer Humanismus. Man nähert sich dem Politischen existenziell oder metaphysisch-spekulativ statt mit pragmatischer Vernunft.“ Die Zeitschrift GEO [57] fragt besorgt: „Wie groß ist die Wahrscheinlichkeit, dass die Klimadebatte künftig mit kühlerem Kopf geführt wird? Und sie kommt zu dem niederschmetternden Ergebnis: „Kleiner als ein Prozent.“ Wir haben es offensichtlich nicht mit rationalen Vorhaben zu tun, sondern mit einem religiösen Phänomen, auch wenn das den Akteuren nicht bewusst ist.

Der religiöse Hintergrund der „Klimakatastrophe“

Wenn wir noch einmal zurückgehen zum Ursprung der 68er Bewegung, dann wird dies deutlich: Günter Rohmoser schrieb in seiner fast prophetischen Analyse „Der Ernstfall“ [58]: „Die große Sinnleere, die aus der konservativ-bürgerlichen Seite hervorgeht, hat in Abständen immer Bewegungen hervorgerufen, die den Verlauf der Geschichte geändert haben. (…) Der Impuls aller dieser Bewegungen war nicht rational, sondern im Kern religiös oder quasireligiös.“ Wenn die Herkunftsreligion verschwindet, sucht sich der Mensch neue Götter, eine neue Religion. Offensichtlich konnten die „verkopften“ Kirchen ihren Auftrag nicht erfüllen: „Eine ernüchterte (christliche) Religion setzte unbefriedigte Antriebe frei. Kultur wurde religiös aufgeladen, Bildung wurde zum Religionsersatz. Von der politischen Sphäre verspricht man sich Antworten auf die letzten Fragen, also Erlösung, Apokalyptik, Eschatologie“ [59]. Die Politik übernimmt heute gleichsam die Aufgabe der Religion.

Ein weiteres quasireligiöses Element brachte Hans Jonas ein. Er hatte erkannt, dass die religiöse Motivation die stärkste Wirkung hat [60]: „Ich habe den Verdacht, dass das, was ich die Abschaffung der Transzendenz nannte, vielleicht der kolossalste Irrtum der Geschichte gewesen sein könnte.“  Aber bei dieser Erkenntnis blieb er nicht stehen: „Es ist die Frage, ob wir ohne die Wiederherstellung der Kategorie des Heiligen, … eine Ethik haben können, die die extremen Kräfte zügeln kann, die wir heute besitzen“ [61]. Das bedeutete, dass man wieder etwas Heiliges einführen musste und er fand es in der Natur: „Die in der Gefahr neu entdeckte Schicksalsgemeinschaft von Mensch und Natur lässt uns auch die selbsteigene Würde der Natur wiederentdecken… Die Ehrfurcht allein, indem sie uns ein ‚Heiliges’, das heißt unter keinen Umständen zu Verletzendes enthüllt, wird uns auch davor schützen, um der Zukunft willen die Gegenwart zu schänden…“ [62]. Das war der Anstoß, die Natur als ein neues Heiligtum zu installieren. „Die Natur ersetzt Gott als externe Instanz des Urteils über die Gesellschaft. Diejenigen, die es entrüstet als Zumutung von sich weisen, Gott-Vater anzubeten, huldigen ganz selbstverständlich einem Kult der Mutter Erde.“ [63]. Wir haben es also im Grunde mit einem Religionswechsel zu tun: „Die überlieferten religiösen Muster erfahren im Ökologismus Bedeutungsverschiebungen, bleiben jedoch in ihrer Symbolkraft bestehen. Die Natur ist gut, der Mensch ist schlecht. Das Natürliche: rein, heilig, das vom Menschen Gemachte: Schmutzig, verderbt“ [64].

So ist es nicht verwunderlich, dass es bei der grünen Energiepolitik nicht darum geht, die beste technische Lösung zu finden: „Im Umweltschutz dominieren nicht Fakten oder Wissenschaft, sondern dogmatische Glaubenssätze. Da das Jüngste Gericht vor der Tür steht, wird eine allumfassende Verhaltensnormierung gefordert“ [65]. Die Ökoreligion ist besonders attraktiv für die städtische Mittelschicht, „weil man dort Technikfeindlichkeit, Anti-kapitalismus und Aktionismus unterbringen kann“[65]. Und sie hat enorme Macht gewonnen „Der Ökologismus ist heute eine der einflussreichsten Religionen der westlichen Welt“ [66]. Er hat mittlerweile in Politik und Medien die Meinungsführerschaft errungen. Selbst die CDU und die großen Industriekonzerne unterwerfen sich ihren Dogmen. Und wie jede Religion setzt auch der Ökoreligion ihre Dogmen absolut: Wer nicht den Müll trennt, ist ein „Umweltsünder“, wer an der Klimakatastrophe zweifelt, ist ein „Klimaleugner“. Und da die Ökodogmen bis in die Universitäten und Ministerien hinein gelten, erhalten skeptische Wissenschaftler keine Fördermittel, und ihre wissenschaftliche Karriere ist beendet. Nicht zufällig stammen die kritischen Kommentare vorwiegend von emeritierten Professoren.

Keiner der später zu den Grünen gewechselten 68er Ideologen hatte ursprünglich etwas mit Umweltschutz im Sinn – sie wollten eine sozialistische Gesellschaft: „Mit dem ökologisch vorgegebenen Nullwachstum hatten die Linken ihre Probleme. Doch sie witterten einen Gewinn für ihr Staatsverständnis darin, dass sich nun ein weites Feld für ihre geliebte Planwirtschaft auftut. Diesmal zum Schutz der Welt. Was könnte mehr Macht versprechen? Genau hier liegt die Gefahr“ [66]. Sie hatten erkannt: In einen Ökosozialismus konnte man die deutschen Naturromantiker mit ihrer Sehnsucht nach der heilen Welt einbinden und bei der gut verdienenden städtischen Mittelschicht das schlechte Gewissen. Bei den dennoch nicht Ökobewegten wurde durch systematische Verunsicherung die Angst vor der Katastrophe instrumentalisiert. Denn es ist viel leichter, Menschen zu verunsichern als sie zu beruhigen. Mit Formulierungen wie „man kann nicht ausschließen“ wurden Restrisiken zu Bedrohungen stilisiert und suggeriert, es gäbe so etwas wie ein risikofreies Leben.

Damit eröffnete sich ein ungeheures Machtpotential, diesmal sogar noch zur Rettung der Welt! Unter dem Slogan „Atomkraft? – nein Danke!“ feierte die Anti-Atom-Bewegung dann ihren ersten große Sieg mit der Verhinderung der Wiederaufbereitungsanlage für Kernbrennstoffe in Wackersdorf. Damals zeigte sie zum ersten Mal, dass sie in der Lage war, Kampagnen auch gegen starke Regierungen zu führen, weil sie auf eine mittlerweile breite Basis von „Gesinnungstätern“ zurückgreifen konnte.

Es gibt keine bessere Methode, Menschen für einen „Retter“ zu gewinnen, als eine äußere Bedrohung. Wenn, wie bei der „Klimakatastrophe“ die Bedrohung gar global ist, ließe sich die ganze Menschheit vereinigen. Dabei ist es sehr praktisch, dass zumindest zu Lebzeiten ihrer Propheten die Wahrheit einer Katastrophe nicht überprüft werden kann. Wenn also eine Ideologie das Potential hat, eine Weltregierung einzurichten, dann ist es diese. Und es ist eine Erfahrung unserer Geschichte, dass jede politische Religion einen totalitären Staat anstrebt. Ein Kennzeichen der Ökopolitiker ist schon heute ihre Reglementierungswut: „Ihr müsst dieses tun und jenes lassen!“ Alles wird bis ins kleinste Detail vorgeschrieben – speziell wie wir zu denken haben. Und alles wird gerechtfertigt durch die Wahnidee: „Wir müssen doch die Welt retten!“

Hans Joachim Schellnhuber, Chef des Potsdamer Klimainstituts, träumt von einem Elitezirkel, der, wenn die Lage bedrohlich sei, schnellstmöglich eine neue Weltgesellschaft erfinden müsste. Es handelt sich dabei um eine Elite, die sagt, was die Menschen zu tun und zu lassen haben. Also vergessen wir die ganze Demokratie. Es gibt ein paar Experten, die alles viel besser wissen. Selbst Jens Reich wünscht sich einen mächtigen Ökorat, der ohne Rücksicht auf „Legislaturperiodengewusel“ seine Entscheidungen zum Wohle aller trifft [67].

Letztlich ist die ganz Entwicklung auf die Säkularisierung zurückzuführen, und die Christen müssen sich fragen lassen, wie es dazu kommen konnte: „Der Glaubensverlust hat die Menschen anfällig gemacht für Urängste, die durch Desinformation und Alarmismus bewusst geschürt werden“ [68]. Die Konsequenzen könnten dramatisch sein: „Wer diese Angst beherrscht und funktionalisieren kann, verfügt über den zentralen Code der Menschheitsängste: Die Besänftigung der Naturgötter“ [69]. Gibt es noch eine Umkehr zum Gott der Angstfreiheit oder könnte es sein, dass wir gerade den Anfang dessen miterleben, was über die Endzeit in der Offenbarung des Johannes geschrieben steht?

[1] T. V. d. Kraftwerksbetreiber, Welt Online, 15. 05. 2011.
[2] FOCUS, 47/2011.
[3] Wirtschaftswoche, 47/2004.
[4] S. Brand, FAZ, 09/04/2011.
[5] C. D. Bowman, Nuclear Instruments and Methods in Physics Research , pp. 336-367, 1992.
[6] FOCUS, 17/2002.
[7] F. Varenholt, CICERO, Januar 2007.
[8] E. Fromm, Haben oder Sein, Insel, S. 11+12, 1987.
[9] E. Fromm, a. a. O., S. 143 ff.
[10] E. Fromm, a .a .O., S. 19.
[11] H. Jonas, Das Prinzip Verantwortung, S. 391: Insel, 1987.
[12] N. Bolz, Das Wissen der Religion, S. 42: Fink, 2008.
[13] H. Schmidt, Auf der Suche nach einer öffentlichen Moral, S. 27, 1998.
[14] H. Wagner, „Medien-Tabus und Kommunikationsverbote,“ 1991.
[15] H. Wagner, a. a .O..
[16] W. Clement, CICERO, 9/2007.
[17] DIE WELT, 07. 09. 2007.
[18] FAZ, 16. 01. 08.
[19] W. Krämer, FOCUS, 40/2011.
[20] W. v. Petersdorff, DIE WELT, 28/2007.
[21] M. &. Miersch, „Wettlauf der Ängste,“ DIE WELT, 12. 01. 2007.
[22] M. Horx, DIE WELT, 14. 03. 2007.
[23] „Kölner Dom unter Wasser,“ SPIEGEL, 33/1986.
[24] M. Horx, FOCUS, 28/2008.
[25] D. Maxeiner, Hurra, wir retten die Welt!, S. 110, 2007.
[26] E. L. Gärtner, „Climagate und Post Normal Science,“ ef-online, 09. 03. 2010.
[27] „Bundesamt für Strahlenschutz im Zwielicht,“ DIE WELT, 13. 12. 2007.
[28] N. Bolz, Das Wissen der Religion, Fink, 2008.
[29] G. Schulze, „Die Klima-Hysterie,“ DIE WELT, 12. 01. 2007.
[30] K. Büchel, Der Klimaschwindel, S. 116, 2007.
[31] „Ergebnis einer Befragung von deutschen Klimaforschern,“ DIE WELT, 25. 09. 07.
[32] K. Büchel, a .a. O. S. 71.
[33] J. H. Reichholf, Die falschen Propheten, S. 83-88, 2002.
[34] H. J. S. S. Rahmsdorf, Der Klimawandel, S. 31, 2007.
[35] H. S. H. Ulrich Berner, Klimafakten, S. 216+217, 2004.
[36] G. R. Weber, Treibhauseffekt, S. 55, 1992.
[37] H.-J. Lüdecke, CO2 und Klimaschutz, S. 101: Bouvier, 2010.
[38] R. L. C. Y.-S. Lindzen, Bull. Am. Meteorol. Soc. , pp. 417-432, 82, 2001.
[39] G. P. e. al., Theor. Appl. Climatol. , pp. 351-359, 98, 2009.
[40] L. R. und H. J. Lüdecke, „A New Basic 1-Dimension 1-Layer Model obtains excellent Agreement with the observed Earth Temperature,“ Jornal of modedrn Physics, pp. Vol 22, No. 5, S. 449-455, 2011.
[41] J. H. Reichholf, a. a. O. S. 131.
[42] J. Seifert, Das Ende der globalen Erwärmung, 2010.
[43] DIE WELT, 12. 03. 2008.
[44] U. S. H. Bernerr, a. a. O. S. 217, p. a .a .O S. . .
[45] G. R. Weber, Treibhauseffekt, S. 177, 1992.
[46] M. Horx, „Epidemien der Angst,“ DIE WELT, 14. 03. 2007.
[47] B. Lomborg, „Cool it!,“ DIE WELT, 16. 05. 2008.
[48] D. Maxeiner, a. a. O. S. 216.
[49] D. Maxeiner, a. a. O. S. 129.
[50] D. Maxeiner, a. a. O. S. 131.
[51] A. d. B. u. M. Gabriel.
[52] R. Tichy, „Geschäftemacherei mit grüner Moral,“ Wirtschaftswoche, 17/2008.
[53] F. Fahrenholz, DIE ZEIT, 4/12.
[54] FOCUS, 31/2011.
[55] C. Bartsch, „Mehr Licht im Dunkel des Klimawandels,“ FAZ, 27. 03. 2007.
[56] R. Safranski, „Ein deutsches Verhängnis? Die Unfähigkeit der Deutschen, Politik ohne Pathos zu denken.,“ Rheinischer Merkur, 25/2009.
[57] GEO, 02/2010.
[58] G. Rohrmoser, Der Ernstfall, S. 516, 1995.
[59] R. Safranski, „Ein deutsches Verhängnis? Die Unfähigkeit der Deutschen, Politik ohne Pathos zu denken,,“ Rheinischer Merkur, 25/2009.
[60] H. Jonas, Das Prinzip Verantwortung, S. 231: Insel, 1987.
[61] H. Jonas, Das Prinzip Verantwortung, S. 57.
[62] H. Jonas, Das Prinzip Verantwortung, S. 246+393.
[63] N. Bolz, Das Wissen der Religion, S. 45, 2008.
[64] M. &. Miersch, „ Lasset uns Müll trennen,“ CICERO, Februar 2005.
[65] J. Schönbohm, Politische Korrektheit, S. 54, 2010.
[66] U. Kulke, DIE WELT 1. September 2007, 1. September 2007.
[67] M. Horx, „Epidemien der Angst“ DIE WELT, 14. März 2007.
[68] M. Horx, „Epidemien der Angst“ DIE WELT, 14. März 2007.
[69] M. Horx, „Epidemien der Angst“ DIE WELT, 14. März 2007.
[70] CICERO, 1/2007.
[71] DIE WELT, 25. 09. 2007.
[72] N. Bolz, Das Wissen der Religion, S. 43, 2008.
[73] D. Maxeiner, Hurra, wir retten die Welt, S. 111, 2007.
[74] M. Crichton, „Lasset uns Müll trennen,“ CICERO, Februar 2005.

Prof. Dr. Wolfgang Leisenberg, Bad Nauheim, erweiterte Version eines Vortrags am 15. Oktober 2011