2. Der Klimawandel und Folgen für die Energiewende

2.1 Klimaprognosen und-ziele

2.1.1 IPCC –Prognosen

Mitte des 20. Jahrhunderts stellten Forscherinnen und Forscher vermehrt Anzeichen dafür fest, dass sich die Atmosphäre erwärmt und dass Aktivitäten des Menschen eine Ursache dafür sein könnten. Das Umweltprogramm der Vereinten Nationen (UNEP) und die Weltorganisation für Meteorologie (WMO) gründeten daraufhin 1988 den IPCC. Ziel war es zu klären, welche Gefährdung von der Erderwärmung ausgeht und ob gehandelt werden muss. (5)

So beschreibt die deutsche Koordinierungsstelle des IPCC (Intergovernmental Panel of Climate Change) seine Entstehung und Aufgaben

Dazu veröffentlicht er seit 1990 alle sechs bis sieben Jahre Sachstandsberichte, die IPCC Assessment Reports.

Die zentralen Aussagen der fünf Sachstandsberichte 1990, 1995, 2001, 2007 und 2013/14. sind in (6) wiedergegeben.

Das Umweltbundesamt, basierend auf dem Bericht 2007 fasst die zu erwartenden Klimaänderungen und die empfohlenen Maßnahmen zusammen (7) und schreibt wie folgt: 

„Zur Untersuchung denkbarer Entwicklungen des Klimas in der Zukunft werden Klimamodelle genutzt. Damit führen die Fachleute Simulationen auf der Basis unterschiedlicher Emissionsszenarien durch. Die Ergebnisse derartiger Simulationen […] ermöglichen Aussagen über eine Bandbreite möglicher künftiger Klimaänderungen.

Globale Klimaänderungen bis 2100

Der anthropogene Treibhauseffekt verursacht Veränderungen im Klimasystem. Deren Ausmaße und Auswirkungen für die Zukunft können nur durch Modellrechnungen nachgebildet werden, da vielfältige und komplexe Wechselwirkungen berücksichtigt werden müssen. Aus Szenarienrechnungen lassen sich folgende mögliche zu erwartende Klimaänderungen für das 21.  Jahrhundert ableiten (IPCC, 2007).

Bis zum Jahr 2100 wird von einem mittleren globalen Temperaturanstieg zwischen 1,8 (mit einer Schwankungsbreite von 1,1-2,9) und 4,0 (mit einer Schwankungsbreite von 2,4-6,4) Grad Celsius ausgegangen. […]

Werden die Treibhausgasemissionen nicht verringert, ist eine Erwärmung um 0,2 Grad Celsius pro Dekade für die nächsten 30 Jahre sehr wahrscheinlich. […]

Im Vergleich zum Zeitraum von 1980 bis 1999 wird bis zum Ende des 21.  Jahrhunderts von einem Anstieg des Meeresspiegels für ein niedrigeres Szenario zwischen 18 und 59 Zentimetern und für ein höheres Szenario zwischen 26 und 59 Zentimetern ausgegangen (IPCC, 2007). […] Insgesamt sind die Aussagen über die zu erwartende Entwicklung des Meeresspiegels noch immer sehr unsicher.

Ganze Kontinente und Meeresbecken weisen deutliche Klimaänderungen auf. Modelle zeigen, dass sich diese Trends auch im 21.  Jahrhundert fortsetzen.

  • Arktis: Die durchschnittlichen Temperaturen stiegen in den vergangenen 100 Jahren doppelt so schnell wie im globalen Durchschnitt.
  • Meereis: Satellitendaten zeigen seit 1978, dass die durchschnittliche jährliche Ausdehnung um 2,7 Prozent pro Jahrzehnt geschrumpft ist, im Sommer sogar um 7,4 Prozent.
  • Niederschläge: Von 1900 bis 2005 wurden in vielen Regionen langfristige Veränderungen beobachtet. Zunahme der Niederschläge  wie auch Austrocknung und Dürren.
  • Meteorologische Extremereignisse: Die Häufigkeit von Starkniederschlägen hat zugenommen. Kalte Tage und Nächte sowie Frost sind seltener und heiße Tage und Nächte sowie Hitzewellen sind häufiger geworden.  […]

Um eine gefährliche anthropogene Störung des Klimasystems zu verhindern, ist es erforderlich, die globale Temperaturerhöhung langfristig auf maximal zwei Grad Celsius über dem vorindustriellen Niveau zu begrenzen (8), wie beispielsweise der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) in seinem Sondergutachten zeigt (WBGU, 2003). Wissenschaftliche Ergebnisse ( IPCC, 2004 ) weisen darauf hin, dass dieses Temperaturlimit mit hinlänglich großer Sicherheit nur unterschritten werden könnte, falls es gelänge, die Treibhausgaskonzentration bei 400 ppm CO2-Äquivalenten zu stabilisieren. Um eine derartige Stabilisierung zu erreichen, ist es erforderlich, dass die globalen Emissionen noch höchstens etwa bis zum Zeitraum 2015 bis 2020 steigen dürfen, um dann bis 2050 auf unter die Hälfte des Niveaus von 1990 zu sinken […]

Damit diese Lasten fair verteilt werden, ist es notwendig, dass die Industrieländer ihre Treibhausgasemissionen um 80 Prozent bis 2050 gegenüber 1990 mindern.“

2.1.2 Pariser Abkommen und die 2-Grad-Grenze

Im deutschen Wikipedia steht zum 2°C –Klimaziel

https://de.wikipedia.org/wiki/Zwei-Grad-Ziel

„Das Zwei-Grad-Ziel beschreibt das Ziel der internationalen Klimapolitik, die globale Erwärmung auf weniger als zwei Grad Celsius bis zum Jahr 2100 gegenüber dem Niveau vor Beginn der Industrialisierung zu begrenzen.

Das Ziel ist eine politische Festsetzung, die auf Grundlage wissenschaftlicher Erkenntnisse über die wahrscheinlichen Folgen der globalen Erwärmung erfolgte. […]

(Für den Beginn der Industrialisierung wird häufig das Jahr 1850 gesetzt, Genaueres unter (8).)

Der Wissenschaftlichen Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) trug wesentlich dazu bei, dass die Zwei-Grad-Grenze in den politischen Prozess gelangte.“

In (9) wird die Plausibilitätsbetrachtung beschrieben, die die Festlegung des Klimaziels durch den WBGU erklärt. Dort steht u.a.:

“ So haben während mehrerer Jahrzehnte Intuitionen, Einwände und Einsichten dazu geführt, dass 2°C ein fokaler Punkt in der Klimadebatte geworden ist.“

Im Pariser Klimaschutzabkommen vom Dezember  2015 ist vereinbart den Anstieg der weltweiten Durchschnittstemperatur auf deutlich unter 2 °C gegenüber vorindustriellen Werten zu begrenzen, mit dem konkreten Ziel den Grenzwert   1,5 °C einzuhalten.

Der gegenüber 2° C niedere Grenzwert von 1.5° C wurde auf Initiative der kleinen Pazifik- Inselstaaten und einiger afrikanischer Länder in einem UNFCCC –Bericht im Mai 2015 vorgeschlagen. (https://unfccc.int/resource/docs/2015/sb/eng/inf01.pdf)

Auf die oben aufgeführten Prognosen des IPCC sowie auf Organisation und Arbeitsweise des Weltklimarats wird unter 2.6 noch näher eingegangen.

2.2 Die Energiewende: Energiebedarf, Kosten, Nutzen

2.2.1. Der totale Energiebedarf, erreichte Klimaziele 2018

Im Jahre 2018 lag in Deutschland der Anteil der erneuerbaren Energien an der Stromerzeugung bei fast 38 Prozent und damit im Plan. Das Ziel, 2030 etwa 50 % zu erreichen erscheint überschaubar, aber zur Erreichung des Ziels von 80%  in 2050 fehlen dann immer noch 30%. Bereits heute jedoch sorgen die bundesweit nahezu 30 000 Rotortürme für eine Belastung der Natur und der Bewohner, die sich in zunehmend schärferem Widerstand der Bevölkerung gegen neue Projekte niederschlägt (10).

Darüber hinaus  stellt die Stromenergie nur etwa 1/5 des deutschen Energiebedarfs dar (Umweltbundesamt). Um vor allem auch den Energiebedarf für die Wärmeerzeugung und den Verkehr zu decken hat Deutschland demnach nach Erreichen der Ziele der Stromökologisierung immer noch 4/5 des Weges zur Dekarbonisierung vor sich (10). Dies  macht einen Faktor von mehr als 10 um den die umweltfreundliche Energieerzeugung gegenüber heute (2018) erhöht werden muss.

Was den CO2 Ausstoß anlangt, stellt Umweltministerin Schulze 2018 fest, dass das für 2020 anvisierte Ziel von 40% Reduktion gegenüber 1990 mit voraussichtlich nur 32% nicht erreicht werden wird, begründet durch eine „unerwartet schnell wachsende Bevölkerung und Wirtschaft“ (11).

Die Union der deutschen Akademien schreibt in ihrer Stellungnahme „Sektorkopplung“ Optionen für die nächste Phase der Energiewende (2017) (12) :

„Ein kontinuierlicher, deutlicher Ausbau erneuerbarer Energien zur Stromerzeugung führt nicht dazu, dass auf eine Bereitstellung einer Reserveleistung in ähnlicher Höhe wie die Leistung des heutigen konventionellen Kraftwerksparks verzichtet werden kann, da die Stromerzeugung aus erneuerbaren Energien selbst bei Installation erheblicher Mengen an Kurzzeitspeichern nur eine sehr geringe gesicherte Erzeugungsleistung aufweist.“

Die Energiewende wird schwerpunktmäßig im nationalen Kontext betrachtet. Das heißt, nur das deutsche Energiesystem wird im Detail analysiert und auf der Zeitschiene optimiert. Es gibt jedoch theoretisch eine Option, mit der man eine umfassende europäische Energiewende im Stromsektor realisieren könnte, das europäische Supergrid. Es besteht aus sehr leistungsfähigen Übertragungsnetzen, die einen Austausch großer elektrischer Energiemengen mit Hilfe der Hochspannungs-Gleichstromübertragung (HGÜ-Technik) ermöglichen (13). Die Genehmigungsverfahren zum Bau dieser Stromautobahnen sowie die Einigung mit den Stromerzeugern aus Kohle-, Gas,-und Atomkraftwerken der europäischen Partnerländer werden jedoch mühsam und langwierig sein, d.h. die Abschaltung unrentabler Kraftwerke mit Energien durch Verbrennung fossiler Materialien (Kohle, Gas) wird möglicherweise nicht in dem zur Zeit geplanten Maße weitergehen (4) und  auch bei den Protagonisten der erneuerbaren Energien setzt sich die Überzeugung durch, dass noch längere Zeit konventionelle Kraftwerke, vorzugsweise  Gaskraftwerke beibehalten werden müssen.

2.2.2 Kosten der Stromökologisierung

Das Institut für Wettbewerbsökonomie an der Uni Düsseldorf (DICE Consult) hat in einem Gutachten die Kosten der Energiewende nur für den Strombereich berechnet (15).

• Das Ergebnis: Im Zeitraum zwischen den Jahren 2000 bis 2025 müssen geschätzt rund 520 Milliarden Euro aufgewendet werden.
• Eine vierköpfige Familie zahlt somit bis 2025 direkt und indirekt über 25.000 Euro für die Energiewende.

Soweit die voraussichtlichen Kosten zur Stromökologierung.

2.2.3 Sektorkopplung und Gesamtkosten

In (12) veröffentlichen die Deutsche Akademie der Technikwissenschaften , die Deutsche Akademie der Naturforscher Leopoldina  sowie die Union der deutschen Akademien der Wissenschaften , eine Studie   unter dem  Titel „Sektorkopplung: Untersuchungen und Überlegungen zur Entwicklung eines integrierten Energiesystems“. Die Studie berechnet die Kosten für verschiedene Szenarien einer weitgehenden Dekarbonisierung bis 2050 bei einer heutigen CO2 Emission in Deutschland von rund 900 Mio t .

Diese vom Bundesministerium für Bildung und Forschung  finanzierte Studie  betrachtet die Kosten der Ökologisierung ganzheitlich für alle Sektoren des Energiesystems, nämlich Strom, Verkehr und Wärme. Sie kommt zum Ergebnis, dass zukünftig nur eine  alle Sektoren übergreifende Herangehensweise eine Perspektive dafür bietet, die Energieversorgung insgesamt schrittweise auf überwiegend erneuerbare Energien umzustellen.

Rechnungen mit Hilfe eines Optimierungsmodells beschreiben technisch mögliche Entwicklungspfade für unterschiedliche Szenarien des Energiesystems. Die Optimierung zielt auf eine Minimierung der Kosten unter Berücksichtigung spezieller Randbedingungen ab.    

Szenarien des Energiesystems

Die untersuchten Szenarien unterscheiden sich einmal durch die auf der Horizontalen der untenstehenden Abb. angegebenen CO2- Reduktionen von 60%, 75%, 85% und 90%. Bei der freien Optimierung („offen“) wird die Technologiezusammensetzung  von  „Wind Offshore“, „Wind Onshore“, „Photovoltaik“ und flexiblen Kraftwerken  durch die Kostenminimierung bestimmt.

Bei einigen  -85% Szenarien sind zusätzliche Randbedingungen festgelegt, zum einen ein Energiesystem bei der Wasserstoff H2 eine besonders große Rolle spielt , zum anderen eine Entwicklung mit starkem Einsatz von regenerativ erzeugten Kraftstoffen für Verkehr und Wärme (Methan, flüssige Kraftstoffe) . Als flexible Kraftwerke kommen grundsätzlich sämtliche Techniken, die lagerbare chemische Energieträger verwenden in Betracht, von Blockheizkraftwerken in Gebäuden oder Wärmenetzen über Gasturbinen und Brennstoffzellen bis hin zu großen Gas- und Dampfkombikraftwerken. Als Brennstoff kommen fossile Energieträger, Biomasse oder synthetische Gase (Wasserstoff oder Methan), die aus Strom hergestellt und in Speichern gelagert werden, infrage

Bild1: Installierte Leistung an umweltfreundlichen Energien im Stromsektor 2050

Erwartungsgemäß steigt die installierte Leistung für erneuerbare Energien mit dem CO2 Reduktionsziel an. Während heute die installierte Leistung im Stromsektor bei weniger als 100 GW liegt (2018, Statista), erreicht sie 2050 bei den -85% -Szenarien Werte bis 500 GW.

Dabei ist der Anteil der  Windkraft bei etwa 250 GW, was etwa das 4-fache der heutigen Leistung ist (2018 etwa 60 GW)). Bemerkenswert der Anstieg der Photovoltaik-Energie  von heute (2018) 45 GW auf 250 GW , also mehr als das 5-fache.(Effizienzszenario s.u. unter Windkraftanlagen)

Reservekapazität: Die wegen des fluktuierenden Charakters von WK und PV benötigte Reservekapazität beträgt zwischen 60 und 100 Gigawatt. Heute sind etwa 100 Gigawatt an konventionellen Kraftwerken installiert. Das bedeutet, dass die benötigte Reservekapazität nicht abnimmt. Erdgas dürfte auch langfristig als flexibler, emissionsarmer Energieträger eine Rolle spielen

Speicher:  Neben Erneuerbare-Energie-Anlagen und Reservekraftwerken sind zunehmend Speicherkapazitäten erforderlich. Als Kurzzeitspeicher für Strom (für Stunden bis Tage) können vor allem Pumpspeicherkraftwerke und Batterien eingesetzt werden. Für die Langzeitspeicherung sollten mit Strom gut speicherbare Brenn- und Kraftstoffe wie Wasserstoff oder Methan erzeugt werden.

Gesamtkosten der Dekarbonisierung

Bild 2: Kumulative systemische Gesamtkosten bis zum Jahr 2050
für die verglichenen Systementwicklungen und ihre Zusammensetzung

Anhand der obigen Abbildung wird deutlich, dass sich die Kosten für die Entwicklung des  Energiesystems als Ganzes mit steigenden Reduktionszielen, bei sonst gleichen Randbedingungen, stark erhöhen. Eine Steigerung der Reduktion von -80 % auf -90% entspricht etwa einem Mehrkostenbetrag von etwa 1000 Milliarden €.

Die Kosten für das Referenzszenario belaufen sich auf etwa 4000 Milliarden €. Beim Referenzszenario werden bis 2030 die energiebedingten CO2-Emissionen um 40% verringert und bleiben in der Folgezeit konstant.

Die Emissionsminderung auf 85% kostet über 6000 Milliarden bei freier Kostenoptimierung und etwa 4500 Milliarden für das Einsparungs-und Effizienzsteigerungsszenario.

Nach dem Szenario der freien Kostenminimierung  fallen zum Erreichen des Klimaschutzziels von  -85 Prozent bis zum Jahr 2050 insgesamt Mehrkosten (in Bezug auf die Referenz) in Höhe von rund 2 Billionen Euro an, Dieser Wert entspricht im Mittel der nächsten 33 Jahre einem jährlichen Betrag von etwa 60 Milliarden Euro und somit knapp 2 Prozent des deutschen Bruttoinlandsprodukts von 2016.

Eine Studie des  Frauenhofer -Instituts für solare Energiesysteme (ESYS) (14) ergibt als kumulative Kosten 2015-2050 für verschiedene -80% CO2-Szenarien Kosten zwischen 5300 und 5800 Milliarden € und 4200 Milliarden € für das Referenzszenario (Fortschreibung der heutigen Systemzusammensetzung). Für ein -90% Szenario fallen Gesamtkosten von etwa 6500 Milliarden € an.

2.2.4 Der globale Nutzen der deutschen Dekarbonisierung

Der globale CO2-Emissionsanteil Deutschlands beträgt etwa 2,3 % in 2016, dagegen sind die 3 größten Kohlendioxid-Produzenten der Welt China, Indien und die USA für etwa 50% verantwortlich, bei einem jährliche Zuwachs von etwa 3% . Würde es Deutschland also gelingen seinen gesamten Ausstoß auf Null zurückzufahren, dann würde allein der jährliche Mehrausstoß dieser 3 größten CO2-Emittenten in etwas mehr als einem Jahr die deutschen Anstrengungen zunichtemachen.

Eine Abschätzung ergibt, dass wenn der deutsche CO2-Ausstoß auf Null gesetzt würde, die Auswirkung auf die globale Temperatur maximal nur etwa 0,01 Grad (20)(20a) betragen würde und somit in der Praxis nicht bemerkbar wäre .

Und der „Energiehunger“ wird rasant weiter steigen. In einer SPIEGELONLINE – Meldung vom 13. November 2007 heißt es:

„… Alle Welt redet vom Klimawandel, der CO2-Vermeidung und dem Energiesparen. Eine gestern in Rom vorgestellte Studie des Weltenergierates WEC zeigt, wie schwer der Kampf gegen die Erderwärmung noch werden dürfte. Denn der Energiebedarf der Menschheit steigt und steigt – und könnte sich bis 2050 verdoppeln. Der WEC-Prognose zufolge wird sich die globale Nachfrage nach Strom, Öl, Gas und Kohle um 70 bis 100 Prozent erhöhen.“

2.3. Anwendung der erneuerbaren Energien, Effizienz und Regulierungen

In den Kapiteln 2.2.2 und 2.2.3 wurden die Kosten der Energiewende im Bereich von 4-6 Billionen Euros abgeschätzt. Der folgende Abschnitt dient dazu die Gründe für diese immensen Kosten deutlich zu machen. Es werden kurz die physikalischen Größen „Leistungsdichte“ und „Energiedichte“ diskutiert. Sie liefern die technische  Erklärung für die gewaltigen Kosten der geplanten Strukturveränderungen und der notwendigen Investitionen, wie sie  für die  Windkraft, die Photovoltaik und die Elektromobilität erforderlich sind: Windräder  mit einer Höhe von mehr als 150 m, Rodungen von großen Waldflächen, große Flächen auf Dächern und in Naturlandschaften für Photovoltaik-Elemente, ausgedehnte engmaschige  Stromnetze oberhalb und unterhalb des Erdoberfläche für die Ladeinfrastruktur von Elektroautos, Gelder für Forschung und Entwicklung der  Speichertechnologien, neu zu entwickelnde großtechnische Industrieverfahren für  die Entsorgung und das Recycling der Rotorblätter, Solarmodule und  Batterien.

2.3.1. Leistungsdichte und Kosten Infrastruktur,

Nach (21b) ist die Leistungsdichte S durch

S= P/A

definiert.

„P ist die Leistung in Watt, A die Fläche in m², d.h. S wird in der Einheit Watt /m² gemessen. Bei der Windturbine ist mit S die Leistung des Windes, geteilt durch die vom Propeller überstrichene Fläche bei senkrecht auftreffendem Wind gemeint. Bei der Photozelle ist es die Leistung der Sonne, geteilt durch die Solarzellenfläche bei senkrechtem Sonneneinfall. […]

Die Bedeutung einer hohen Leistungsdichte S wird aus A×S=P deutlich. Ist S klein, muss man die Fläche groß machen, damit das gewünschte Endprodukt P ausreichend hoch ausfällt. Dies erklärt warum Windradpropeller so riesig sind. Weil Wind nur eine extrem kleine Leistungsdichte aufweist ( Autor: nach Kapitel 6.1 von (21b) ist S  der sehr geringen Luftdichte proportional), ist eine -ebenso extrem- große, vom Propeller überstrichene Fläche bereitzustellen. […]

Bei der Fotozelle ist die Platte groß genug zu machen ( Autor: da auch hier die Leistungsdichte nur gering ist, wegen der geringen Leistungsdichte der auf die Erdoberfläche fallenden Sonnenstrahlung, siehe nachfolgende Tabelle).  . „High-Tech“ wird oft auch über die Leistungsdichte definiert. In diesem Sinne sind Wind- und Solarkraftwerke eindeutig „Low-Tech“. […]

„ Ein Kohlekraftwerk hat eine 2000-fache höhere Stromleistungsdichte als ein WKA-Ungetüm (Autor: Windkraftanlage) in der windstarken Nordsee und sogar eine 25 000-fach höhere als die Solarplatten auf dem Hausdach Ihres Nachbarn (siehe obenstehende Tabelle).

Aus den Vergleichen wird anschaulich, dass Wind und Sonne grundsätzlich extrem teurer sind als Kohle und Uran, denn wir können die Leistungsdichte von Wind und Sonne mit keiner Maßnahme erhöhen. […].

Der minimale Energieertrag und, als Folge davon, die extrem hohen Kosten der Photovoltaik sind mit der Begeisterung der Bevölkerung für diese Methode nicht vereinbar.“

2.3.2 Flächenbedarf

Die Leistungsdichte von Solarmodulen in Deutschland beträgt, nach der Tabelle in Bild 2a von (21b), 10 W/m². Hierbei ist berücksichtigt, dass im Mittel in Deutschland nur 18% der Zeit die Sonne scheint. Die häufig angegeben Nennleistung bezeichnet die Leistung unter Testbedingungen im Labor, die für die Abschätzung des nutzbaren Energieertrags einer Solaranlage nicht aussagekräftig sind.

Im Jahre 2014  betrug die installierte Leistung sowohl für Windkraft wie auch für Potovoltaik etwa  38,5 GW (BDEW https://www.bdew.de/media/documents/20180427_Fakten-Argumente-Kraftwerkspark-Deutschland.pdf)

Wollte man nun mit der der mittleren Leistungsdichte von 10 W/m² den jährlichen Gesamtstromverbrauch Deutschlands von 614 TWh im Jahre 2014, der 1/5 des gesamten deutschen Energieverbrauchs 2014 darstellt, mit Photovoltaik erzeugen , so wäre eine Fläche von 7000 km² nötig, die etwa das Dreifache der Fläche des Saarlands beträgt (21b).

Stellt man eine analoge Betrachtung für die Windkraft an, so erwähnt Lüdecke (21b), dass im Jahre 2014 etwa 24 000 Windräder 9,14% der jährlichen Stromerzeugung von 614 TWh erbracht haben. Um den gesamten Jahresstrom zu erzeugen wären dann etwa 263 000 Windturbinen nötig, die eine Fläche von 92 000 km² einnehmen würden. Zum Vergleich, Bayern hat eine Gesamtfläche von 70 555 km². Dabei handelt es sich sowohl beim Sonnen-wie auch beim Windstrom um fluktuierenden Strom, der für eine Stromgrundlast unbrauchbar wäre.

2.3.3  Akzeptanz durch die Bevölkerung, der entscheidende Faktor

Der Klimaschutzplan der deutschen Bundesregierung sieht vor Deutschlands bis zum Jahr 2050 weitgehend treibhausgasneutral zu machen. In einer Studie des Fraunhofer Instituts werden mögliche Entwicklungen des deutschen Energiesystems untersucht, die bis zum Jahr 2050 zu einer Reduktion energiebedingter CO2-Emissionen um mindestens 95 %  gegenüber dem Vergleichswert aus dem Jahr 1990 führen (15a)

Für die zu installierenden Leistung für Windkraft und Photovoltaik schlägt die Studie verschiedene Szenarien vor. Der wesentliche Parameter dieser Szenarien -neben technischer Machbarkeit und Kosten-ist das Verhalten und die Einstellung der Bevölkerung , d.h. inwieweit der Bürger die Veränderung der Umwelt ( Windräder, Photovoltaik auf Freiflächen, landwirtschaftlichen Feldern, Dächern und Fassaden von Häusern ) akzeptiert.

Im Szenario Referenz, das einer Kostenoptimierung ohne weitere von außen vorgegebene Randbedingungen folgt, liegt der Anteil von Windenergie bei rund 40 % (263 GW an Land und auf See)  und der Anteil von Photovoltaik bei rund  60 % (414 GW) der insgesamt installierten Leistung im Jahr 2050.

Dies würde bedeuten, dass rund zwei Drittel des von diesen Anlagen insgesamt gelieferten Stroms von Windenergieanlagen stammen und rund ein Drittel aus Photovoltaik (Autor: Beachten Sie den Unterschied zum Verhältnis der Nennleistungen). Bei diesem Szenario und auf der Basis der von Lüdecke durchgeführten Abschätzung erhält man für den Flächenbedarf von etwa 165 000 Windrädern eine Fläche von 57 400 km² und eine Fläche von ca 4 400 km² für die Solarelemente auf Freiflächen, Dächern und Fassaden von Gebäuden. Die Zahl der Windräder würde sich gegenüber dem Park im Jahre 2019 von etwa 30 000 WKA’s um mehr als das 5-fache steigern [Autor].

Im Szenario Inakzeptanz geht man davon aus, dass ein Ausbau der Industriestruktur dieses Ausmaßes  auf starken Widerstand der Bürger stößt, und legt die zu installierende Leistung für Windenergieanlagen (Summe aus Anlagen an Land und auf See) auf 115 GW und die Leistung für Photovoltaik auf 645 GW fest. Das bedeutet immer noch eine Verdopplung der heutigen Zahl der WKA’s  und gegenüber dem Szenario Referenz eine erhebliche Steigerung von 50% bei der Photovoltaik.

2.3.4 Deutschland als Vorreiter, nirgendwo Nachahmer

Der Däne Bjørn Lomborg ist außerordentlicher Professor an der Copenhagen Business School. Er äussert sich zum Pariser Klimaabkommen und zur deutschen Energiewende (15b).

„Deutschland ist stolz auf seine Vorreiterrolle beim Klimaschutz. Durch große Anstrengungen zur Senkung des Energieverbrauchs und vor allem durch den massiven Ausbau erneuerbarer Energien (Wind, Solar und Biomasse) wurden die deutschen CO2-Emissionen seit 1990 um rund 17 Prozent abgebaut. (Autor: Stand 2013) […]

Doch der Preis für diese Energiewende ist gigantisch – während die Auswirkungen auf die globale Erwärmung kaum messbar sind. […]

Allein die bestehenden Solaranlagen werden in den nächsten 20 Jahren mit 100 Milliarden Euro subventioniert decken (Autor: EEG Umlage), obwohl diese derzeit nur 0,5 Prozent des Energiebedarfs decken. […]

Trotz dieser Milliardensummen wird Deutschlands Beitrag zum Klimaschutz unfassbar gering bleiben. […] Setzt man diese CO2-Verringerung (Autor: durch Photovoltaik)  in die aktuellen Klimamodelle ein, ergibt sich ein Temperaturrückgang um weniger als 0,0001 Grad Celsius bis zum Jahr 2100. […]

Insgesamt werden alle deutschen Anstrengungen zum Ausbau erneuerbarer Energien (Autor: durch Windkraft, Fotovoltaik und Biomasse)   […] zu einer Temperaturabsenkung von weniger als 0,001 Grad Celsius bis zum Ende des Jahrhunderts führen; das heißt, der globale Temperaturanstieg verzögert sich bis zum Jahr 2100 rein rechnerisch um knapp 16 Tage.[…]

Im Schnitt bezahlen die Deutschen 132 Euro, um durch Ausbau der erneuerbaren Energien eine Tonne CO2 einzusparen. Verglichen damit sind Schäden, die eine Tonne CO2 anrichtet, weitaus geringer.

In seriösen Kostenschätzungen werden die Schäden, die eine Tonne CO2 beispielsweise durch den Anstieg des Meeresspiegels verursacht, mit rund vier Euro beziffert. Kühl gerechnet folgt daher: Es wäre 30-mal billiger, sich an den ohnehin unvermeidbaren Klimawandel anzupassen, als zu versuchen, die globale Erwärmung durch viel zu teure Aufwendungen für regenerative Energien um wenige Tage hinauszuzögern.

Kein Wunder also, dass Deutschland mit seiner Energiewende nirgendwo auf der Welt Nachahmer findet. […]

Der derzeitige Emissionsrückgang durch Ausbau der erneuerbaren Energien, für den Deutschland Hunderte Milliarden Euro ausgibt, entspricht dem Anstieg der chinesischen Emissionen in den folgenden 19 Tagen, nachdem Sie diesen Artikel gelesen haben.“

2.3.5 Photovoltaik

2.3.5.1 Perspektiven der Photovoltaik

Gero Rueter  schreibt über die Perspektiven der Solarindustrie (15c):

Solarkraft ist heute weltweit oft die günstigste Form der Stromerzeugung. Seit 2008 sanken die Preise für Module um über 90 Prozent pro Watt und ein Ende dieses Trends ist nicht in Sicht.“

Nach Berechnungen der Forscher der Lappeenranta University of Technology in Finnland (LUT) und Experten der Energy Watch Group (EWG) wird im Jahre 2050 bei vollständiger Umstellung auf erneuerbare Energien die Solarenergie deshalb weltweit bald zum wichtigsten Energieträger mit einem Anteil von 70%

Dazu wären Solarstrom- Module mit einer Kapazität von 63.000 Gigawatt weltweit nötig, knapp 100 Mal mehr als heute, so die Berechnungen der Energieexperten

2.3.5.2 Erzeugungspotential für Photovoltaik in Deutschland

Bild 3a: Anwendungen für die Integration von Photovoltaik

Eine Studie des Fraunhofer Instituts im Auftrag des Bundesministeriums für Verkehr und digitale Infrastruktur schätzt das Ausbaupotenzial für Photovoltaik in Deutschland ab (15d). Dächer und Fassaden, bieten ein technisches Potenzial von mindestens 900  GW.  Die aktuell für den Energiepflanzenanbau genutzte Fläche entspricht einem zusätzlichen technischen Potenzial von 700 GW Nennleistung.

Mit Hilfe von Agrophotovoltaik lassen sich Landwirtschaft und Stromproduktion auf derselben Fläche kombinieren (www.agrophotovoltaik.de). Eine Reihe von Nutzpflanzen zeigen kaum Ertragseinbußen bei reduzierter Einstrahlung, andere profitieren sogar. Wird die aktuelle Anbaufläche dieser beiden Pflanzenklassen in Deutschland als technisches Potenzial angenommen, so entspricht dies einer Nennleistung von 1 700 GW.

Weitere Flächen für die Nutzung der Fotovoltaik sind freischwimmende Fotovoltaik- Flöße auf gefluteten Braunkohletagebau-Flächen, Lärmschutzwände, Schattenspender und befahrbare Module im urbanen Bereich sowie Dächer von Elektrofahrzeugen

2.3.5.3 Die deutsche Solarindustrie, Subventionen, Schutzzölle

Trotz der Unterstützung der deutschen Solarindustrie in Milliardenhöhe kam es nach einem anfänglichen Boom zu einem schmerzhaften Abschwung (15e)

„Noch in den 2000er Jahren lief es für die deutsche Solarindustrie hervorragend. Die rot-grüne Koalition hatte mit dem Erneuerbare-Energien-Gesetz, kurz EEG, die Vergütung von Solarstrom kräftig angehoben. […]

Die Branche begann rasant zu wachsen. So rasant, dass ausländische Mitbewerber einstiegen – vor allem aus China.[…]

Deutschland hat also mit seiner Förderung dafür gesorgt, dass die Solarwirtschaft global wettbewerbsfähig wurde, doch die heimische Wirtschaft hatte bald nicht mehr viel davon. Unter den 15 größten Solarfirmen befanden sich als einzige deutsche Firmen einer Aufstellung des Handelsblatts aus dem Jahr 2016 zufolge nur noch Solarworld (Autor: Solarworld hat 2017 Insolvenz angemeldet (…)) und Q-Cells aus Bitterfeld, das inzwischen aber einem südkoreanischen Unternehmen gehört.[…]

Die Krise der deutschen Photovoltaik-Branche mag viele erstaunen, fließt doch noch immer viel Geld in den Markt.

Professor Manuel Frondel von der Ruhr-Universität Bochum hat vor einiger Zeit zusammen mit Kollegen die Kosten der Solarförderung aufsummiert und kam für den Zeitraum von 2000 bis 2012 auf über 107 Milliarden Euro an Zahlungsverpflichtungen der bis dahin installierten Solaranlagen in Deutschland. […] Mittlerweile, sagt Frondel, dürfte der Wert der Zahlungsverpflichtungen die 110-Milliarden-Euro-Marke deutlich überschritten haben. „Dies müssen die Stromverbraucher mit ihrer Stromrechnung zahlen“, erklärt er. […]“

Zum Schutz der heimischen Hersteller hatte die EU im Jahre 2013 Antidumpingzölle auf Solarmodule aus China eingeführt, die 2018 wieder aufgehoben wurden (Webseite der Europäische Kommission)

2.3.5.4 Neustart der deutschen Solarwirtschaft

„Seit im September 2018 die Produktion im letzten Werk des einstigen Vorzeigeunternehmens Solarworld eingestellt wurde, gibt es keinen nennenswerten deutschen Hersteller von Solarzellen mehr (15f). […]

Andreas Bett, Direktor des Fraunhofer Instituts für Solare Energiesysteme in Freiburg [Autor] sieht aber Chancen, in Deutschland wieder Solarzellen in größerem Stil zu produzieren. Forschung und Entwicklung seien noch auf ganz hohem Niveau. „Es muss aber jetzt die Produktion aufgebaut werden.“ Einen Kostennachteil sieht Bett für eine heimische Produktion nicht. „Die Produktionskosten wären in Deutschland nicht höher als in China, weil die Herstellung stark automatisiert ist.“ Der wachsende Anteil der Transportkosten am Gesamtpreis für PV-Module aus Asien spreche zudem für eine Fertigung in Deutschland.

Der Aufbau von Produktionskapazitäten in Europa werde aber nur gelingen, „wenn die Politik für faire Wettbewerbsbedingungen sorgt“. Aussichtsreich sei dabei vor allem die Produktion hocheffizienter Solarmodule, die unter anderem an Gebäuden oder Lärmschutzwänden installiert werden könnten. „Weil die Akzeptanz für Photovoltaik auf Freiflächen sinkt, ist das eine Riesenchance“, sagte der Wissenschaftler.“

Der Neustart der Solarindustrie in Deutschland wird von Gero Rueter in „DW made for minds“ beschrieben (15c).

Der Neustart baut auf den Vorteil einer bestehenden Infrastruktur

Die Solarzellen sollen in Bitterfeld-Wolfen produziert werden, die Solarmodule 150 Kilometer entfernt in Freiberg bei Dresden. Dafür wurde die einst größte Solarfabrik Europas gemietet.

Nach der Insolvenz von Solarworld endete hier 2018 die einst bedeutende deutsche Produktion von Solarzellen und Solarmodulen.Die deutschen Solarpioniere überlebten den Preiskampf mit China nicht.

Der neue Investor ist das Schweizer Unternehmen Meyer Burger. Das Technologieunternehmen ist Weltmarktführer für die Maschinenausstattung von Solarfabriken. Nun will das Unternehmen selber Zellen und Module produzieren und vom stark wachsenden Markt profitieren

Da die Photovoltaik deutlich billiger geworden ist, ist der Anteil der Transportkoste prozentual größer geworden. Mit der lokalen Produktion in Europa würde nun ein Kostenvorteil entstehen.

2.3.6 Windkraftanlagen

Bild 3b: Windenergienutzung in Deutschland 2010-2016

In einer Studie über die Windkraft in Deutschland schreibt die die VGB Powertech (16)

„In der Abb sind relevante Kennzahlen für die Entwicklung der Windenergie in Deutschland im Zeitraum von 2010 bis 2016 dargestellt. Demnach hat sich die kumulierte installierte Nennleistung des deutschen Windparks von 26.903 MW am Jahresende 2010 bis zum Jahresende 2016 fast verdoppelt. Die Anzahl der Windenergieanlagen, jeweils zum Jahresende und gerundet, erhöhte sich zeitgleich von 21.600 auf 28.200 Aggregate.

Die durchschnittliche Nennleistung jeder neu zugebauten Onshore-Windenergieanlage lag im Jahr 2010 bei 2,0 MW. Bis zum Jahr 2016 erhöhte sich dieser Durchschnittswert auf 2,8MW (Offshore-Windenergie: 5,2MW pro Anlage). […]

Der arithmetische Mittelwert ist ein Maß für die jährlich bereitgestellte Energie und spiegelt die konstante Leistung wider, die ein Kraftwerk für diese Energie bei konstanter Fahrweise über ein Jahr erbringen müsste. […]

Das resultierende Verhältnis aus mittlerer Leistung zu potenzieller Leistung (Nennleistung) wird auch als Ausnutzung  bezeichnet. Die Ausnutzung ist dimensionslos und als Maß für die Anzahl der Jahresstunden zu verstehen, in denen der Windpark umgerechnet seine Nennleistung erbrachte. Multipliziert mit der Anzahl der Jahresstunden ergeben sich die Volllaststunden  des Windparks im betreffenden Jahr. […]

Von 2010 bis 2016 erreichte die Ausnutzung einen Durchschnittswert von rund 18%. […].

Hinsichtlich des Beitrags der Windenergie zur Versorgungssicherheit gibt insbesondere die Entwicklung der jährlichen Minima der Leistungszeitreihen gemäß Bild 3b  Aufschluss: Diese Werte liegen seit 2010 erstaunlicherweise auf unverändert niedrigem Niveau von durchschnittlich 100MW, obwohl sich die Nennleistung des deutschen Windparks zeitgleich fast verdoppelt hat. [,,,]

Offenbar hat sich die intuitive Erwartung, dass der Minimalwert bei einem Ausbau deutschlandweit verteilter Windenergieanlagenstandorte nach dem Motto „irgendwo weht immer Wind“ ansteigt und der Ausbau der Windenergienutzung in zunehmendem Maße eine Substitution konventioneller Kraftwerksleistung ermöglicht, nicht erfüllt. […]

Die permanent verfügbare (gesicherte) Leistung des deutschen Windparks lag damit immer deutlich unter einem Prozent seiner Nennleistung oder anders ausgedrückt: Im jedem Jahr gab es immer mindestens eine Viertelstunde, in der mehr als 99 % der Nennleistung des deutschen Windparks nicht verfügbar waren und praktisch ein Bedarf an 100% planbarer Backup-Leistung herrschte.[…]

Aus Sicht der Versorgungssicherheit hat die Windenergie in Deutschland damit bisher  (bis 2016)konventionelle Kraftwerksleistung von maximal 150MW ersetzt. Zum Vergleich: Für die Stabilität des Stromnetzes wird hierzulande zum Zeitpunkt der Jahreshöchstlast, die meist spätnachmittags an einem Tag im Zeitraum von November bis Februar auftreten kann und vorab unbekannt ist, eine Kraftwerkskapazität von etwa 77.000 bis 82.000MW benötigt.“

ESYS (12) stellt fest, dass  ein starker Zubau an Anlagen zur Stromerzeugung aus Sonne und Wind  unabdingbar ist. Sowohl gesellschaftliche Akzeptanzgründe als auch Aspekte der Flächennutzung und des Naturschutzes legen jedoch Systementwicklungen nahe, die diesen Ausbau so gering wie möglich halten

Um also die zu installierende Leistung zu begrenzen wurde in der ESYS Studie in einem weiteren Szenario (85_offen+Aktiv) für 2050 eine durch Einspar-und Effizienzmassnahmen erzielte  Stromnachfrage   von -25% gegenüber heute angenommen. Damit reduziert sich der Beitrag von  Windkraft und Photovoltaik, etwa im Verhältnis 50/50, auf 350 GW.

Nach der Studie des Frauenhoferinstituts (14)

beläuft sich die in 2050 installierte Leistung  für die Windkraft auf Werte zwischen 190 und 220 GW (für die verschiedenen Szenarien)  und 170 und 200 GW für die Fotovoltaik.

Gegenüber der heutigen Situation entspricht dies einer Vergrösserung der installierten Windkraft um das Dreifache und um das 4fache für die Photovoltaik..

Detlef Ahlborn (17) schätzt eine  benötigte Installation von etwa 60 000 Windkraftanlagen ab , also gegenüber heute eine Verdopplung  der bereits installierten Anlagen.

Wiesenvogelbrutgebiet Weenermoor, LK Leer. Quelle: https://www.wattenrat.de/

Die Windbranche versucht durch Windräder mit höherer Nennleistung die Zahl der benötigten Neuinstallationen zu reduzieren (18). Die neuesten Entwicklungen „Windkraft 4,0“ haben eine Rotordurchmesser von 170 m bei einer Nennleistung von 5,6  Megawatt. (Entwickler Vensys, Mutterkontern Goldwind , China)

Im deutschen Baugesetzbuch der wird ein Mindestabstand von 1000m zur Wohnbebauung festgeschrieben, es ist aber den Bundesländern überlassen diesen Abstand zu verringern. Um den Widerstand der Anwohner zu verringern sollen Anwohner und Kommunen mit „Windbürgergeld“ und finanzielle Windkraftbeteiligungen entschädigt werden (18a) .

Manfred Knake , Vertreter von  „Wattenrat“, einem lockeren Zusammenschluss von Naturschützern aus der Küstenregion Ostfrieslands, bezeichnet das Windbürgergeld als fragwürdiges Schweigegeld. Es geht den Projektierern der Windbranche nicht um das Klima sondern nur um das Abgreifen von mehr EEG-Subventionsgeld, das bereits heute mehr als 30 Milliarden Euro jährlich betrage (18a) (siehe auch Abschnitt 6.2)

Für längere Phasen mit nicht ausreichendem Strom aus PV und Wind – also Situationen, in denen auch alle Kurzzeitspeicher erschöpft sind („Dunkelflauten“) – ist eine große Back-up-Kapazität für die Stromerzeugung bereitzustellen.  Flexible thermische KWK-Anlagen  und Gaskraftwerke sind eine wichtige Säule der Versorgungssicherheit. Dabei nimmt diese benötigte Reservekapazität nicht ab.

2.3.6.1 Mikroklima, Flächenverbrauch, Artenschutz

Klimaauswirkung.

Forscher der Harvard Universität stellen in einer Studie (18b) fest, dass Windkraftanlagen durch die Veränderung der Durchmischung der Luftschichten in der Vertikalen die Umgebungstemperatur erhöhen.  Während eines Zeitraums von einigen Jahrzehnten  würde die durch die Politik der Umstellung auf Windenergie   verursachte Temperaturerhöhung  größer sein der Nutzeffekt der dabei erzielten CO2 Einsparung.

Zerstörung von Waldflächen

Nach Schätzungen des Bundesamtes für Naturschutz benötigt man für jeden einzelnen Mast eines Windparks  eine Freifläche von 0,2 bis 1 Hektar, die entweder gerodet werden muss oder als Lichtung verloren geht. Dazu kommt die ergänzende Infrastruktur wie Stromtrassen oder Zufahrtswegen. Vorher weitgehend geschlossene Wälder werden dadurch zerstückelt, aus dem Ökosystem wird eine Art grünes Industriegebiet (18c)

Quelle: http://windwahn.net/ein-windrad-steht-im-walde/

 

In bewaldeten Gegenden bedeutet die Errichtung eines Windrads den Verlust von etwa 850 Bäumen (18k). Nach Angaben des Politikberaters AGORA, sind, um im Jahr 2050 klimaneutral zu sein (EU Ziel) im Jahre 2030 etwa 80 GW onshore Windenergie notwendig (18l). Unter der Annahme, dass etwa 50% davon in den bewaldeten Gegenden Deutschlands stehen werden und der ha Wald aus etwa 1500 Bäume besteht, ergibt sich eine zu rodende Fläche von etwa 3000 ha. Der von Aktivisten verbissen verteidigte Abschnitt im Dannenröder Forst, der für den Ausbau der Autobahn A 49 vorgesehen ist, beträgt 85 ha, ist also um mehr als der Faktor 30  kleiner.

 

Artenschutz

Die etwa 30 000 Windräder in Deutschland, die heute in Deutschland installiert sind, töten nach (18d) pro Jahr

250 000 Fledermäuse,  12 000 seltene Greifvögel und 1 200 t Insekten .

Eine  Studie  über die gesamten USA  (Auswertung 45 000 Turbinen) ergibt eine jährliche Kollisionsrate pro Windrad zwischen etwa 3  (Great Plains) und ca 8 (Kalifornien) Zusammenstößen (18e) . Überträgt man in grober Näherung einen Mittelwert von ca 5. Kollisionen pro Windrad auf  die 30 00 Windräder, die sich aktuell in Deutschland drehen , so erhält man ca 150 000 getötete Vögel pro Jahr.

Die weltweit bisher (2016) größte Studie zu Kollisionsrisiken von Vögeln mit Windrädern mit Schwerpunkt Schleswig-Holstein (Auftraggeber Bundeswirtschaftsministerium) stellt  allein  für das nördlichste  Bundesland mit etwa 3000 Windrädern jährlich 1600 tote Mäusebussarde durch Windkraftanlagen fest (18f)

Leben bedrohte Arten wie der Schwarzstorch oder verschiedene Greifvogelarten (roter Milan, Mäusebussard), im Umfeld eines geplanten Projekts, so müssen die Erzeuger entsprechende Abstände einhalten, oder ihre Pläne werden nicht genehmigt. Nach (18c) kommt es zu  illegalen Zerstörungen  von Großvogelhorsten in der Nähe von bestehenden und geplanten Windkraftanlagen.

Die Umweltministerkonferenz aus Bund und Ländern hat im Mai 2020 diskutiert wie die Hemmnisse des Ausbaus der Windkraft beseitigt werden können. Es wird u.a. ein Vorschlag erarbeitet ,wie genehmigungshemmende Abstände zu Vogellebensräumen verringert werden können (18g).

2.3.6.2 Abbau, Recycling, Abrissfinanzierung

Die FAZ berichtet (18h), dass das Umweltbundesamt (UBA) ab 2021 mit einem verstärkten Abriss der etwa  30 000 Anlagen rechnet. Die im Rahmen einer UBA Studie errechneten Abfallmengen sind extrem gross: 5,5 Millionen Tonnen Beton pro Jahr, vor allem wegen der Fundamente, müssen ausgegraben und beseitigt werden. Zudem fielen knapp eine Million Tonnen Stahl pro Jahr an , was grundsätzlich gut zu verarbeiten sein müsste. Anders sieht es aus bei den mit Kohlefasern verstärkten Rotorblättern. Die Recyclingbranche hatte hier mit dem Hinweis auf Sondermüll schon vor Jahren Alarm geschlagen. Laut Prognose für das UBA werden hier ab 2024 „relevante Mengen“ von bis zu 70.000 Tonnen pro Jahr anfallen. Sie seien nicht nur schwer zu verwerten, in ganz Deutschland gebe es auch nur eine einzige Verwertungsanlage für solche Abfälle. Auch Bloomberg  (18j) schreibt Anfang 2020 einen ausführlichen Artikel über die Schwierigkeiten den Restmüllverwertung der Rotorblätter mit den Dimensionen eines Flügels des Großraumfliegers 747/Jumbo Jet.

Die FAZ berichtet weiter, dass nach der Studie für den Rückbau der Windenergieanlagen eine große Finanzierungslücke zu erwarten ist. Die Betreiber könnten – obwohl seit 20 Jahren von den Stromkunden mit mehr als 100 Milliarden Euro subventioniert – nicht genügend Rückstellungen für den Rückbau gebildet haben.

Die fluktuierende Erzeugung erneuerbarer Energien kennt natürlich nicht nur Perioden mit nicht ausreichender Versorgung ,sondern auch Tage, in denen mehr Strom als in Deutschland benötigt produziert wird. In dieser Situation zahlt Deutschland an die ausländischen Abnehmer sog. Entsorgungsgebühren: Diese Entsorgungsgebühren zahlt der deutsche Steuerzahler, während sich der ausländische Verbraucher am kostengünstigen Überschussstrom erfreuen kann (19).

2.3.6.3  Windkraft: Konformität mit dem Grundgesetz

Dietrich Murswiek, emeritierter Professor für Rechtswissenschaften mit den Schwerpunkten Verfassungsrecht, Völkerrecht und Umweltrecht bemerkt zur Konformität der Windkraftanlagen mit dem Grundgesetz (19a)

„[…] Der Staat ist gemäß Artikel 20a des Grundgesetzes zum Schutz der natürlichen Lebensgrundlagen verpflichtet gleichgültig, wodurch sie beeinträchtigt werden, und selbstverständlich auch dann, wenn die Beeinträchtigung durch CO2-Emissionen erfolgt oder durch Vernichtung von sogenannten „Senken“(beispielsweise Wäldern), die CO2 aus der Luft entnehmen und chemisch umwandeln.

[…] Die Zahl der Windkraftanlagen wird sich selbst bei Verdoppelung ihrer Leistung mehr als verdreifachen müssen, von heute fast 30.000 auf vielleicht 100.000. Deutschland wird nicht mehr wiederzuerkennen sein.

Die Abwägung, die Artikel 20a bei staatlichen Programmen mit weitreichenden Umweltauswirkungen verlangt, geht deshalb eindeutig zulasten der Windenergie aus: Ihr Schaden für die Umwelt ist groß; einen Nutzen für die Begrenzung der Erderwärmung und der durch sie befürchteten Umweltschäden hat sie nicht.

[…] Wenn aber Technologien gefördert werden, die einerseits zur Verminderung der CO2-Emissionen beitragen, aber andererseits die Umwelt schädigen, haben wir ein Problem. Dann muss abgewogen werden, ob der Nutzen dieser Technologie für den Klimaschutz – genauer für die Vermeidung von Umweltschäden, die durch menschengemachte Erderwärmung entstehen – größer ist als die Umweltschäden, die von dieser Technologie verursacht werden.

Erst dann könnte rational entschieden werden, ob die Windkraftförderung der Umwelt mehr nutzt oder schadet. Eine solche Folgenabschätzung fehlt bislang. Sie zu unterlassen, war schon bei der bisherigen Subventionierung der erneuerbaren Energien verfassungsrechtlich defizitär und wäre jetzt bei einer Weichenstellung mit so gravierenden Folgen für Natur und Landschaft wie es ein Beschluss wäre, der mindestens die Verdoppelung der Windkraftanlagen zur Folge haben müsste, ein grober Verstoß gegen das Verbot des Artikel 20a, den Zustand der Umwelt in Deutschland durch staatliche Maßnahmen zu verschlechtern.“

2.3.6.4 Das Investitionsbeschleunigungsgesetz

Im August 2020 beschließt das Bundeskabinett den Entwurf des sogenannten Investitionsbeschleunigungsgesetzes.U.a. soll der Bau neuer Windkraftanlagen durch das neue Gesetz beschleunigt werden, Klagewege durch die Instanzen werden verkürzt. So sollen Oberverwaltungsgerichte oder Verwaltungsgerichtshöfe künftig in erster Instanz zuständig sein. Anfechtungsklagen und Widersprüche gegen Windkraftprojekte entfalten keine aufschiebende Wirkung mehr (19b).

2.3.6.5 Erneuerbare Energien: Frage der öffentlichen Sicherheit ?

Mitte Oktober 2020 berichtete die Welt, dass die Bundesregierung die Nutzung erneuerbarer Energien zu einer Frage der nationalen Sicherheit machen will (19l).

„Die Nutzung erneuerbarer Energien zur Stromerzeugung liegt im öffentlichen Interesse und dient der öffentlichen Sicherheit‘, heißt es im Entwurf des neuen Erneuerbare-Energien-Gesetzes.“ […]

Der Verweis auf ‚öffentliche Sicherheit‘ dürfte im Streitfall um den Bau etwa von Windkraftanlagen andere Interessen grundsätzlich ausstechen. […]

Bei Gerichtsverfahren im Zusammenhang mit dem Ausbau von Bioenergien, Wind- und Solarkraft könnte der Verweis auf „öffentliche Sicherheit“ Ermessensentscheidungen der Richter einschränken, fürchten Wirtschaftsvertreter. […].

Die neue Norm drohe zur Grundlage weitreichender staatlicher Eingriffe zu werden.

Die Bundesregierung bestätigte, dass die neuen staatsrechtlichen Weihen für Öko-Energie die Durchsetzung von Bauanträgen erleichtern sollen.“

Mitte Dezember 2020 berichtete die Welt, dass der Sicherheitsparagraf in der EEG Reform, die  vom Bundestag und Bundesrat beschlossen wurde, nicht mehr enthalten ist (19m).

2.3.6.6 Erneuerbare Energien: Subventionen

Björn Lomberg vergleicht die Entwicklung der Stromerzeugungskosten der Erneuerbaren Energien mit dem Wert des durch sie erzeugten Stroms (19p). Bei der Windkraft sind zwischen 2008 und 2016 die Stromerzeugungskosten um 33% gesunken sind, der Wert der produzierten Energie auf dem Strommarkt  fiel allerdings mit 43 % noch schneller. Die Windenergie ist  auch heute nicht kosteffizient.

Der Grund für den nicht kostendeckenden Wert der erneuerbaren Energien, dass Wind und Sonnenstrom nur unregelmäßig zur Verfügung stehen. Deshalb muss das Stromnetz einen erheblichen Anteil der Stromproduktion mit fossilen Brennstoffen oder Batterien absichern, was die Kosten erhöht. Die zunehmende Lücke muss vom Verbraucher weiter durch hohe Subventionen bezahlt werden.

Auch in Zukunft wird nach Lomberg der Wert des produzierten Stromes schneller sinken als die nötigen Kosten. In Deutschland müssen die erneuerbaren Energien also weiterhin subventioniert werden

So wird nun in der Novelle des Erneuerbare-Energien-Gesetzes (EEG 2021) beschlossen, dass die alten Windräder weiter gefördert werden (19q). 20 Jahre lang hatte der Stromverbraucher den Betrieb der Rotortürme nach den Vorgaben des Erneuerbare-Energien-Gesetzes (EEG) subventioniert. Jetzt endet für die ältesten Anlagen dieser Förderzeitraum. Die Betreiber müssten sich künftig eigentlich selbst um die Vermarktung ihres Stroms kümmern. Das aber ist in den meisten Fällen kaum lohnend.

Doch um die Abrisswelle in letzter Minute zu verhindern, befanden Bundesregierung und Parlamentsmehrheit vergangene Woche: 20 Jahre Beihilfen sind noch nicht genug.

Im Jahre 2017 kritisierte der Bundesrechnungshof, dass das BMWI keinen Überblick über die finanziellen Folgen der Energiewende besitzen würde. Das BMWi wies diese Kritik zurück. Der Vorsitzende der beratenden Kommisiion des Energiewende-Monitorings „Energie der Zukunft“ stellte fest, dass es sehr schwierig sei Indikatoren zu finden um die Gesamtkosten zu quantifizieren, aber die Gesamtkosten, so fügte er hinzu, scheinen nicht zu alarmierend zu sein. (19r)

 

2.3.7 Elektromobilität, negative CO2-Gesamtbilanz

2.3.7.1  Energiedichte und Kosten Infrastruktur

Im Lexikon des „Batterieforums Deutschland“(16a) steht :

„Bei der Energiedichte unterscheidet man zwischen volumetrischer und gravimetrischer Energiedichte. […]

Die gravimetrische Energiedichte beschreibt, wie viel Energie pro Gewicht (Masse) der Batterie gespeichert werden kann. Sie wird in Kilowattstunden pro Kilogramm (kWh/kg) angegeben. […]

Die volumetrische Energiedichte beschreibt, wie viel Energie pro Volumen aus einer Batterie entnommen werden kann. Sie wird in Kilowattstunden pro Liter (kWh/L) angegeben.

Zum heutigen Stand der Batterien für Elektroautos und seinen Entwicklungsmöglichkeiten in den nächsten 10 Jahre findet das Fraunhofer Institut (16b)

„In den letzten zehn Jahren (Artikel erschienen Januar 2020) hat sich die Energiedichte großformatiger, in E-Pkw eingesetzter LIB-Batteriezellen (Autor: Lithium-Ionen- Batterien) fast verdoppelt auf heute durchschnittlich 200 Wh / kg bzw. 400 Wh / l. Bis 2030 könnte die (insbesondere volumetrische) Energiedichte nochmals maximal verdoppelt werden, sofern die damit einhergehenden großen FuE Herausforderungen erfolgreich umgesetzt werden. [… ]

„Dies und ein weiter verringerter Energieverbrauch der Fahrzeuge (kWh / km), zum Beispiel durch Isolation und Verringerung des Heizaufwands, eine Verringerung des Energieverbrauchs durch Elektronik, Leichtbau etc. könnte bei gleichem Batterieplatzbedarf zu einer Verdopplung der Reichweite von heute etwa 250 bis 400 Kilometern auf 500 bis 800 Kilometer in den kommenden zehn Jahren führen [47, 91, 92]. Höhere gegebenenfalls in der Literatur genannte Energiedichten und damit verbundene Reichweiten auf Basis alternativer und meist noch in der Grundlagenforschung befindlicher Batteriechemien sind aus heutiger Sicht spekulativ.“

Zum Gewicht der Elektroautobatterien sagt Prof. Günther Schuh, Konstrukteur des StreetScooter und e.Go (16c):

  „Es gibt einfach einen zu großen Unterschied in der Leistungsdichte zwischen der Feststoffbatterie und dem Diesel. Das ist reine Physik. Wo ich heute einen 50-Liter-Dieseltank herum karre, müsste ich selbst bei einem besseren Wirkungsgrad immer noch eine mehr als 700 Kilo schwere Batterie in einem Elektroauto haben. Das kann weder ökologisch noch ökonomisch gut sein.“

Paul Rojas beschreibt die Bemühungen der Forscher sich der Energiedichte von Benzin anzunähern (16d) :

„Im Vergleich zu der Energiedichte von Benzin schneiden herkömmliche Autobatterien nicht besonders gut ab. Es ist berechnet worden, dass Benzin bis zu 13 kWh pro kg erzeugen kann. Durch die thermischen und mechanischen Verluste im Auto erreichen nur 1,7 kWh die Räder. Es ist aber ein großer Unterschied zwischen diesen 1,7 kWh und den 0,14 vom Nissan-Leaf (Autor: Stand September 2014), fast ein Faktor von 12. Außerdem hat ein Benzinmotor im Winter den Vorteil, dass er gleichzeitig die Wärme für die Heizung erzeugen kann, ohne den Motor merkbar zu belasten.

Abb. 2 (hier Bild 2b) zeigt einen Vergleich von Batterietechnologien und die erreichbare Energiedichte in Wh/kg. Wie man sieht, liefert generische Li-Ion-Technologie um die 160 Wh/kg, aber die Lithium-Sauerstoff-Technologie könnte potenziell fast die Energiedichte von Benzin erreichen (nach Abzug der thermischen und Reibungsverluste).

Bild 3c: Praktische Energiedichte von Batterietechnologien. Die theoretische Dichte verwandelt sich in die praktische durch die thermischen und mechanischen Verluste, bis die Energie an die Räder kommt.

Bild: https://www.heise.de/tp/features/Wettrennen-um-die-Autobatterie-der-Zukunft-eroeffnet-3367548.html

Zum heutigen Stand der Entwicklung der Lithium-Sauerstoffbatterie stellt Battery-News.de fest (16e) :

„Der Weg zur wiederaufladbaren Lithium-Sauerstoff-Batterie ist noch lang und voller Hindernisse. Viele Erwartungen an diese disruptive Zellchemie konnten bis dato noch nicht realisiert werden und LiO2Batterien verfügen nur über eine stark eingeschränkte Wiederaufladbarkeit, eine geringe Lebensdauer und eine ausbaufähige Energiedichte.“

Nach (16a) gibt die Energiedichte Auskunft darüber, wie lange ein Elektroauto fahren kann, bevor es aufgeladen werden muss, während die Leistungsdichte dafür entscheidend ist, wie stark ein Elektroauto beschleunigen kann.

2.3.7.2 Die Batteriefertigung

Wesentliche Anteile der CO2-Emission eines Elektroautos entstehen bei der Fertigung und dem Recycling der Batterie.

In (19c) werden die CO2.Emissionen für die Fertigung einer Lithium Ionen Batterie aus neu gewonnen Rohstoffen pro kWh Batteriekapazität angegeben. Wenn der Strommix zwischen grünem Strom (0kg CO2/kWh) und einem Strom reich an Anteilen aus fossilen Energiequellen (1kg CO2/kWh) variiert , dann liegt der Emissionsbereich  für 1kWh Batteriekapazität zwischen 61 und 106 kg CO2. Dabei sind nicht mit eingerechnet die etwa 15kg CO2 für das Recyclen der Batterie.

Ein weiterer wesentlicher Faktor bei der Batterieherstellung ist die Verfügbarkeit der Rohstoffe für die Elektroden und die Elektrolytflüssigkeit. Dabei handelt es sich bei den sog. NMC-Batterien neben Lithium um die Metalle Nickel, Mangan und Kobalt deren Verfügbarkeit in Anbetracht der hohen Planungsziffern für die Elektromobilität deutlich begrenzt ist

Bei der Gewinnung von neuen Rohstoffen ist auch ein sozialer, moralischer Aspekt zu berücksichtigen. Nimmt man das Beispiel Kobalt, so kommen  60 Prozent des heutigen Weltmarkts aus der Demokratischen Republik Kongo, wo Armut und politische Instabilität zu Zwangs- und Kinderarbeit unter haarsträubenden Bedingungen führen.

So wird man auf die Dauer zwangsläufig die Bestandteile der Akkus durch effizientes Recycling wiedergewinnen müssen. So betont auch Akira Yoshino, der für die marktreife Entwicklung von Lithium-Ionen-Batterien den Nobelpreis erhielt, die Wichtigkeit einer umweltschonenden Wiederverwertung.

Nach (19d) hat dieser Appell die Heerscharen von Batterieentwicklern bisher kaum erreicht. Die geplante und effiziente Wiederverwertung der Energiespeicher ist bei vielen von ihnen noch immer ein nachrangiges Designkriterium, wenn überhaupt. Stattdessen geht es vor allem um Kosten, Leistung, Ausdauer und die Integration in möglichst attraktive Elektroautos.

So wäre zum Beispiel nach heutigen technologischen Stand das Zurückgewinnen des Lithiums zwar möglich, aber finanziell aufwendig und mit einen unverhältnismäßigen Einsatz von Energie verbunden.

So fasst die Ingeneurin Rebecca Ciez (Columbia University) den heutigen Stand des Recycling im Satz „Die Folgen für die Umwelt wären in einer gut gemanagten Müllkippe viel geringer“ zusammen

2.3.7.3  Break Even Point und Treibhausgasersparnis des Elektroautos

Der Break Even Point des Elektroautos sind die gefahrenen Kilometern, nach denen die Klimabilanz von Elektrofahrzeugen besser als die der Diesel- bzw. Benzinfahrzeuge ist. In der Studie (19e) ermittelt Martin Wietschel den Break Even Point für verschiedene Fahrzeugklassen und zusätzlich die gesamte Treibhausgaseinsparung über die Nutzungsdauer der Fahrzeuge.

In den folgenden beiden Abbildungen sind der Break Even Point in Kilometer für einen  Mittelklasse BEV (battery electric vehicle) mit einer Batteriekapazität von 40 kWh bzw 58 kWh dargestellt.

Bild 4a: Break Even Point für ein Mittelklasse-BEV mit einer Batteriekapazität von
40 bzw. 58 kWh mit den THG-Emissionen bei der Batterieproduktion
von 61 kg CO2-äquivalent/kWh Batteriekapazität

 

Bild 4b: Break Even Point für ein Mittelklasse-BEV mit einer Batteriekapazität von
40 bzw. 58 kWh mit den THG-Emissionen bei der Batterieproduktion
von 106 kg CO2-äquivalent/kWh Batteriekapazität

Die Ergebnisse zeigen, dass die Höhe der THG-Emissionen der Batterieproduk-tion einen deutlichen Einfluss darauf hat, wie lange ein Fahrzeug fahren muss, um den Break Even Point im Vergleich zum konventionellen Fahrzeug (Mittelklasse-Pkw) zu erreichen. Bei einer Batteriekapazität des Elektroautos im unteren Mittelklassebereich von 40 kWh, bei einem THG-Wert von 61 kg CO2-/kWh für die Batterieproduktion ( nach (19c) im unteren Bereich) und dem deutschen Strommix wird der Break Even Point für ein Fahrzeug, das 2019 gekauft wurde, im Vergleich zum Diesel bei rund 55.000 km erreicht.Wird das Fahrzeug unter sonst gleichen Bedingungen 2030 gekauft, so wird der Break Even Point mit etwas mehr als 25 000 km deutlich früher erreicht. Dies liegt daran, dass die durchschnittlichen THG-Emissionen des deutschen Strommixes über die Jahre als weiter sinkend angenommen werden. Für einen Mittelklassen PKW im oberen Leistungsbereich von 58kWh und dem THG Wert 61 kg CO2/kWh für die Batterieproduktion wird in 2019 der Break Even Punkt bei etwa 73 000 km erreicht, im Jahre 2030 bei 35 000 km.

Treibhausgasersparnis während der Nutzungszeit

Weiterhin werden alle Treibhausgasemissionen über die angenommene Nutzungszeit von 13 Jahren kumuliert und so die gesamten Treibhausgasemissionen kalkuliert. In allen untersuchten Fällen weisen die BEV gegenüber den Diesel- und Benzin-Pkw eine positive Treibhausgasbilanz auf. Sie variiert allerdings sehr stark. Wählt man in einem speziellen Fall die Fahrzeugbatterie eines Mittelklasse-Pkw im unteren Bereich  (40 kWh) und nimmt man für die Treibhausgasemissionen bei der Batterieherstellung 61kg CO2/kWh (s. oben) an, dann muss ein in 2019 gekauftes Elektroauto rund 52.000 km fahren, damit seine Treibhausgasbilanz gegenüber einem vergleichbaren Benzin-Pkw positiv wird. Dies gilt für die Nutzung des deutschen Strommixes beim Laden der Elektrofahrzeuge. Über die gesamte Nutzungsdauer werden gegenüber dem Diesel die Emissionen um etwa 9 t CO2 und um etwa 12 t beim Benzin-PKW reduziert. In (19f) wird der THG Ausstoß über die gesamte Nutzungsdauer mit etwa 35t für den Mittelklasse-Diesel und etwa 41t für den Mittelklasse-Benzin-PKW angeben.

Für den schlechtesten Fall, einem Oberklasse-Pkw mit einer sehr hohen Batteriekapazität (120 kWh) und hohen THG-Werten der Batterieproduktion (146 kg CO2/kWh), der mit deutschem Strommix lädt und 2019 angeschafft wurde, sind es nur 2 t CO2 gegenüber einem Diesel-Pkw an Einsparungen über die gesamte Nutzungsdauer. Damit werden 4 % der THG-Emissionen eingespart. Wenn man alle Fälle miteinander vergleicht ohne die Extremwerte, so ergeben sich für ein in 2019 angeschafftes Fahrzeug durch ein Elektroauto THG-Einsparungen zwischen 10 bis 25 % gegenüber den konventionellen Fahrzeugen bei Verwendung des deutschen Strommixes für Fahrzeuge, die 2019 angeschafft wurden. Für Fahrzeuge, die in 2030 angeschafft werden, sind es zwischen 25 bis 50 %.

2.3.7.4 Elektroautos statt Verbrenner: Negative Gesamtemissionsbilanz

Stahl und Kollegen (19g) betrachten die CO2-Bilanz der Elektromobilität sektorübergreifend, d. h. Sie vergleichen die CO2-Einsparung , wenn man mit den Erneuerbaren Energien (EE) den Kohlestrom ersetzt mit der der Emissionsminderung bei Verwendung der EE zum Betanken eines E-Autos. Das auf den ersten Blick etwas überraschende Ergebnis ist, dass jeder mit einem Elektroauto gefahrene Kilometer zu zusätzlichen 57g CO2 im Vergleich zur Kohlesubstitution führt. Bei einer Flotte, die bis 2030 etwa 11 Millionen E-Autos umfassen dürfte, ergeben sich somit zwischen 2020 und 2030 zusätzliche Emissionen von 40 Millionen t CO2. Die Elektromobilität leistet sogar mittelfristig keinen sinnvollen Beitrag zur CO2-Reduktion. Darüber hinaus würden sich die Kosten der Umstellung auf Elektromobilität im Zeitraum 2020 bis 2030 auf 47 bis 75 Mrd. EUR belaufen.

Modellrechnungen von Ulrich Schmidt vom Weltwirtschaftsinstitut Kiel (19h) ergeben, dass bei Berücksichtigung des erhöhten Stromverbrauchs durch den Ausbau der Elektromobilität Elektroautos tatsächlich zu 73% höheren Treibhausgasemissionen führen als moderne Diesel-PKWs.

Nach Frank Hennig (19i) wird das Problem noch dadurch verstärkt, dass künftig E-Fahrzeuge vor allem vermutlich ab den Nachmittagsstunden, zur Feierabendzeit und nachts geladen werden. Dadurch wird das Netzgleichgewicht durch zusätzliche Last gestört und muss kurzfristig durch die Primär- und die Sekundärregelungen von konventionellen Kraftwerken ausgeglichen werden. Diese konventionellen Kraftwerke sind vor allem Gas-, Kohle- oder Kernkraftwerke. Windkraft- und Photovoltaikanlagen tragen dazu aufgrund fehlender Regelfähigkeit nicht bei. Die Konsequenz ist für die erhoffte Energiewende bitter: In den Akkus der E-Mobile wird vor allem Kohle- oder Atomstrom landen.

Dazu meint Sepp Reitberger, Chefredakteur von Deutschlands größtem Elektroauto-Portal EFAHRER.com (19j):“ Ließe man über die nächsten Jahrzehnte die Struktur der Stromversorgung mit dummen Kraftwerken am einen Ende und dummen Strom-Verbrauchern am anderen Ende unverändert, und ließe man zu, dass Millionen Elektroautos ausschließlich nachts geladen werden, dann flösse tatsächlich sehr viel Kohle- und Atomstrom in die Auto-Akkus. “

„Die Energiewende muss anders funktionieren ­– und Energieversorger und Autohersteller bereiten sich darauf vor: Autos müssen bevorzugt dann laden, wenn Strom aus erneuerbaren Quellen zur Verfügung steht“. (siehe 2.3.6)

2.3.7.5 Elektroauto, Subventionen und alternative Konzepte

Das Institut für Weltwirtschaft Kiel (IfW Kiel) kritisiert Teile des Im Rahmen des Coronakrise beschlossene Subventionsprogramm als gesamtwirtschaftlich schädlich (19k).

Dies umfasst u.a. die Positionen zur Förderung der Elektromobilität, konkret die Erhöhung der Kaufprämie von 4000 auf 6000 Euro. „Mit der einseitigen und massiven Förderung der Elektromobilität benachteiligt der Staat alternative Antriebskonzepte, die sich möglicherweise später als vorteilhafter erweisen.“

2.3.8 Energieeffizienz und Verbraucherverhalten

In nahezu allen Sektoren existieren immer noch bedeutende Effizienzpotentiale. Im Gebäudesektor besteht neben dem baulichen Wärmeschutz zur Reduzierung des Raumwärmebedarfs ein erhebliches Potential zum Austausch alter Heizkessel, die eine wesentlich geringere Energieeffizienz aufweisen als moderne Heizgeräte. Im Verkehrssektor können nicht-technische, verhaltensbasierte Maßnahmen (z.B. geringere Autonutzung zugunsten öffentlicher Verkehrsmittel) einen bedeutenden Beitrag zur Energieeffizienz leisten.

Bei reiner Stromerzeugung sind die Wirkungsgrade konventioneller Kraftwerke aktuell auf bestenfalls 65 Prozent (modernes Gaskraftwerk) beschränkt, das heißt, 65 Prozent der Energie des eingesetzten Energieträgers wird in elektrischen Strom umgewandelt. Moderne KWK-Anlagen wandeln bis zu 95 Prozent der eingesetzten Energie in Strom und nutzbare Wärme um.

Neben der Verbesserung der technischen Effizienz von Anlagen und Anwendungen können weitere Maßnahmen, insbesondere aus dem Bereich der Anpassung des Verbraucherverhaltens, zu einer höheren Energieeffizienz beitragen. Im Verkehrssektor können nicht-technische, verhaltensbasierte Maßnahmen einen bedeutenden Beitrag zur Energieeffizienz leisten, und auch technische Maßnahmen bei bestehenden Antriebskonzepten sind noch nicht ausgereizt.

2.3.9 Regulierungen

Die deutsche Bundesregierung sowie die EU Kommission verlangen seit Kurzem die Klimaneutralität bis spätestens 2050. Der Begriff Klimaneutralität ist nicht klar definiert, noch die Methode ihrer Berechnung . Manchmal wird darunter CO2-Emission Null verstanden. Aus den der obenstehenden Grafik „Gesamtkosten der Dekarbonisierung“ zugrunde liegenden, mit der Emissionsminderung exponentiell steigenden Werten ergibt eine lineare Extrapolation (Näherung !) Gesamtkosten für die Nullemission in Deutschland von etwa 10 Billionen €. Das entspricht dem 3-fachen Bruttosozialprodukt.

Die deutsche Bundesregierung sowie die EU Kommission verlangen seit Kurzem die Klimaneutralität bis spätestens 2050.  Der Begriff Klimaneutralität ist nicht klar definiert, noch die Methode ihrer Berechnung . Manchmal wird darunter CO2-Emission Null verstanden. Aus den  exponentiell steigenden Werten, die der obenstehenden Grafik „Gesamtkosten der Dekarbonisierung“ zugrunde liegen ergibt eine lineare Extrapolation (Näherung !)  Gesamtkosten  für die Nullemission in Deutschland  von etwa 10 Billionen €. Das entspricht dem 3-fachen Bruttosozialprodukts

Da nach (21b) die Energiewende in der von der Bundesregierung heute geplanten Weise weder zeitmäßig  noch kostenmäßig zu realisieren ist, ist zu befürchten, dass die Politik versuchen wird durch gesetzliche Auflagen , d.h. über  Vorschriften und Verbote, die „Klimakatastrophe“ abzuwenden, z.B. Steuern für den Ausstoß von Klimagasen, Einschränkung der Fahrerlaubnis und Besteuerung von Fahrzeugen mit Verbrennungsmotoren, Abgaben zur Finanzierung öffentlicher Verkehrsmittel, Verteuerung von Reisen mit Flugzeug und Kreuzfahrtschiffen, Ernährungsvorschriften, usw.

 

2.3.9.1 Das Steuerbare-Verbrauchseinrichtungen-Gesetz

 Das BMWi beschreibt den Gesetzentwurf mit „Entwurf eines Gesetzes zur zügigen und sicheren Integration steuerbarer Verbrauchseinrichtungen in die Verteilernetze und zur Änderung weiterer energierechtlicher Vorschriften.“

Klaus-Dieter Humpich erklärt und kommentiert die Bedeutung und Konsequenzen der neuen Verordnung    (114p)

„All unsere Gebäude sind an das Niederspannungsnetz (400 V) angeschlossen. […]

Damit nun nicht jedes Haus einen eigenen Trafo braucht, sind die Gebäude wie Perlen auf einer Kette an jeweils ein Kabel des Niederspannungsnetzes angeschlossen. […]

Der Gedanke ist simpel: Wenn man stets den Verbrauch überwacht, kann man das Kabel bis an seine Grenzen belasten. Nähert man sich den Grenzen, werden einzelne Verbraucher zwangsweise abgeschaltet. […]

In diesem Gesetzentwurf steht, dass die „Leistungsreduzierung“ nicht mehr als zwei Stunden pro Tag dauern darf. […]

 

Bei jeder Flaute müssen ausgewählte Verbraucher für die gesamte Dauer abgeschaltet werden, um wenigstens eine eingeschränkte Notversorgung aufrechterhalten zu können. […]

In diesem Gesetzentwurf geht es jedoch um die totale Überwachung: Der aktuelle Verbrauch jedes „Smart-Meter“ – umgangssprachlich Stromzähler – soll permanent an den Netzbetreiber übertragen werden. Selbstverständlich nur für Zwecke des Netzbetriebs und streng „datengeschützt. […]

Ist das bei Elektromobilen so viel anders? Auch dort wird man nachladen, wenn das absehbar nötig wird. […]

Wird jetzt durch unvorhergesehene Drosselungen die Ladezeit völlig unkalkulierbar, dürfte das ein weiteres Argument gegen den Kauf eines Elektromobils werden.“

Die Welt schreibt zu diesem Thema (114q)

„Das Bundeswirtschaftsministerium will Stromanbietern durch eine Änderung des Energiewirtschaftsgesetzes die Möglichkeit einräumen, große Verbraucher wie Elektroautos und Wärmepumpen zeitweise ferngesteuert vom Netz zu nehmen. Das geht aus dem Gesetzentwurf des Bundeswirtschaftsministeriums hervor, der WELT AM SONNTAG vorliegt.“

 

2.3.9.2 Die Suffizienz als Teil der Energiewende

So kommentiert Michael Kopatz vom Wuppertaler Institut für Klima, Umwelt, Energie in Beitrag die sog Suffizienz als einen  Teil der Energiewende (20b).

[…]“Letztlich geht es (Autor:  bei der Suffizienz) also um den achtsamen Umgang mit Ressourcen. Damit können das individuelle Verhalten, der gesellschaftliche Lebensstil, aber auch die allgemeine Wirtschaftsweise gemeint sein.

Zwar haben die Deutschen im Jahr 2013 ein Viertel des Stroms mit Sonne, Wind, Wasser und Biomasse erzeugt und hat sich der Energiebedarf von Gerätschaften und Häusern relativ deutlich verringert, doch absolut betrachtet ist der Ressourcenbedarf kaum gesunken.

Für das Scheitern dieser „absoluten Entkopplung” machen Kritiker die expansive Wirtschaftspolitik verantwortlich. […]

Vielmehr sei auch eine Veränderung der Lebensstile oder, mit anderen Worten, eine sozialkulturelle Transformation notwendig. […]

Suffizienz ist nicht nur individuell, auch die Politik ist gefragt. Und tatsächlich führt nichts an einer verpflichtenden Nachhaltigkeit und damit an einer verbindlich gemachten Suffizienz vorbei. Es müssen Gesetze und Verordnungen den Raum abstecken, innerhalb dessen Freiheit herrschen kann. Notwendig sind auch Leitplanken und Limits für Pferdestärken, Fahrzeuggewicht, Verbräuche von Haushaltsgeräten, Pestizide, Düngemittel, Antibiotika,“

Im Mai 2020 verkündete  ein „Sachverständigenrat für Umweltfragen“, es seien „Maßnahmen unerlässlich, die eine individuelle Pkw-Nutzung unattraktiver machen“ (12a).

„Der Sachverständigenrat für Umweltfragen ist ein siebenköpfiges Gremium und berät die Bundesregierung in Fragen der Umweltpolitik und besteht aus Professorinnen und Professoren verschiedener Disziplinen, so auch aus den Fachgebieten Architektur und Rechtswissenschaften. Sie empfehlen u.a. eine PKW Maut und teurere Parkgebühren in den Städten. Auch unsere Wirtschafts- und Lebensweisen müssen sich verändern, um ökologische Grenzen einzuhalten.“ (12a)

Schon in den ersten Verhandlungen über die CO2 -Bepreisung war der ursprünglich  vorgesehen „Preis“ für 2021 von 10 € pro Tonne  von der Partei „Die  Grünen“ über den Bundesrat  auf 25€ pro Tonne nach oben verhandelt worden sowie die  ursprüngliche 35€-Bepreisung für 2025 auf 55€ .

2.3.9.3 Veränderung von Verhalten und Lebensweise der Bürger

Mit dem Thema Veränderung von Verhalten und Lebensweise der Bürger befasst sich eine Studie des Öko-Instituts im Auftrag des Umweltbundesamts (12b). Im Folgenden werden einige markante Stellen aus der Publikation mit dem Titel  „Mit Suffizient mehr Klimaschutz modellieren“ zitiert:

„ […] Es gibt mehrere Wege zum Klimaschutz. Mit einigen davon, wie etwa Effizienzprogrammen und dem Ausbau erneuerbarer Energien sind wir relativ vertraut. Diese Studie betrachtet mit Suffizienzstrategien einen dritten Weg, der ebenfalls ein hohes Potenzial besitzt, zum Klimaschutz beizutragen. Der Fokus der Studie liegt dabei auf der Modellierung von Suffizienz und stringentem Klimaschutz in längerfristigen Szenarien. […]

Suffizienzstrategien hingegen setzen bei der Änderung von Konsummustern an – wie beispielsweise der Konsum pflanzlicher statt tierischer Proteine oder der Verzicht auf Flugreisen und das Umsteigen auf alternative Fortbewegungsmittel, wie z.B. die Bahn. […]

Unsere Einschätzung beruht insbesondere auf der Beobachtung, dass der Fokus der deutschen Klimaschutzbestrebungen bisher auf der Förderung von Effizienz- und Konsistenzmaßnahmen durch entsprechende Instrumente liegt – bislang jedoch ohne signifikante Emissionsminderungen. […]

Das aus unserer Sicht überzeugendste Argument für Suffizienz ist, dass sie ein großes Potenzial hat, Emissionen einzusparen und damit in großem Maße zur Erreichung der Klimaschutzziele beizutragen. Beispielhaft sei hier auf die Potenzialanalysen in Fischer et al. (2016) verwiesen. […]

Klimaschutzszenario 2050, Szenario KS 95.

Im Auftrag des Bundesumweltministeriums haben Öko-Institut und Frauenhofer-ISI im Szenario „Klimaschutzszenario 95“ (kurz „KS 95“) detaillierte Berechnungen unternommen, um zu zeigen, dass Deutschland sein Klimaschutzziel von 95 % Emissionsminderung bis 2050 gegenüber 1990 erreichen kann.[…]

Bereiche und mögliche Stellschrauben für Suffizienz (im Folgenden Zusammenfassung von Tabelle 1 durch Autor)“

  • Verkehr Mobilität:
    • Verringerung der Neuzulassungen PKW
    •  Besteuerung PKW, Änderung Entfernungspauschale, Energiesteuern, PKW- Maut, Erhöhte Taktfrequenz ÖPNV, Tempo 30 in Städten
    • Größe  PKW 
    • Teuerer Parkraum für größere PKW, eingeschränkte Fahrbahnnutzung für nicht bedarfsorientierte PKW-Größe
    • Reduzierung der zurückgelegten Fahrstrecken 
    • Förderung  Heim-und Telearbeit
    • Reduktion Flugbewegungen
    • Erhöhung Luftverkehrssteuer, Verringerung Subventionen Flugbenzin
  • Landwirtschaft Ernährung
    • Änderung Transferzahlung Landwirte, Reduzierung des Fleisch- und Milchkonsums, maximale Tierzahl pro ha, höhere Stickstoffgrenzwerte, Erhöhung Mehrwertsteuer auf Fleisch, Futtermittelsteuer , Pflicht alles Futter selbst anzubauen , 
  • Gebäude Wohnen & Bau
    • Wohnungen,  weniger stark beheizen , Wohnfläche pro Kopf verringern, Förderung zur Teilung und Tausch und Wohnraum. Besteuerung Wohnraum, weniger Warmwasser benutzen und Warmwassertemperatur reduzieren
    • Elektrogeräte Zahl, Größe und Nutzung dem Bedarf anpassen, Teilen von Geräten,   
    • Reduzierung des Stromverbrauchs durch Reduzierung des elektrischen Wäschetrocknens, Reduzierung des Fernsehkonsums, Förderung von sharing- Angeboten, und Reparaturservices […]
    • „Zunächst wird empfohlen die in Tabelle 1 aufgezeigten Möglichkeiten zur Verankerung von Suffizienz in Modellen in jedem Fall zu prüfen und zumindest gedanklich zu berücksichtigen. Dabei sollte das Ziel sein, Suffizienz möglichst konsistent in allen Bedürfnisfeldern entsprechend der Szenariodefinition zu berücksichtigen. Ein Weglassen zentraler Parametrisierungen von Suffizienz sollte in den Studien zumindest begründet werden.“

 Zum Thema „Suffizienz“ und zum deutschen Bundesklimaschutzgesetz siehe auch Kapitel 6 „Die große Transformation“ .

2.3.9.4 Umfragen zur Akzeptanz: Jung/Alt und Deutschland /Ausland

In den Medien wird regelmäßig der „Aufschrei der Jugend“ gegenüber der Gleichgültigkeit der älteren Generation beim Thema Klimawandel thematisiert, ebenso taucht immer wieder die Rolle Deutschlands als Vorbildfunktion für andere Nationen beim Klimaschutz auf.

In einer Umfrage der Europäischen Investitionsbank (EIB) wurde 30 000 Menschen zur Bedeutung des Klimawandels in Zeiten der Coronakrise befragt (12c). Die Europäische Investitionsbank ist die Bank der Europäischen Union und einer der wichtigsten Geldgeber für den Klimaschutz. Die Studie erfasste 30 000 Menschen in der EU, USA und China.

Eine der zentralen Fragen war

“ Was sind nach Ihrer Meinung die 3 größten Herausforderungen denen die Bürger Ihres Landes aktuell gegenüberstehen?“

In allen Ländern, bis auf China, wurde als größtes Problem die Covid-19-Pandemie genannt, die auch von 68 Prozent aller Deutschen als die derzeit wichtigste Sorge angesehen.

Was nun den Klimawandel anlangt, so befindet er sich europaweit mit 33% auf Platz 4 der Sorgenliste. Allein in Deutschland steht er jedoch mit 51% immer noch an zweiter Stelle.

Auch hinsichtlich der Sorge um die wirtschaftliche und finanzielle Lage nimmt Deutschland eine Sonderposition ein. Während dies hierzulande 43% als eines der größten Probleme betrachten, wird das in der EU von 69% der Interviewten als große Herausforderung eingestuft.

Abgesehen von Deutschland überwiegt praktisch überall neben der Pandemie die Angst vor Wirtschaftsflaute, Finanzkrise und Arbeitslosigkeit. Die entsprechenden Prozentwerte liegen in den meisten Ländern fast doppelt so hoch wie die Angst vor dem Klimawandel. In großen Nachbar- und Partnerländern wie Frankreich, Italien oder Schweden zählen nur noch rund ein Drittel der Menschen den Klimawandel unter die Top-3 der größten Herausforderungen.

Auch zum Unterschied der Positionen jung gegenüber alt gibt die Befragung interessante Aufschlüsse. In Deutschland wurde der Kampf der Klimaschützer als ein Kampf jung gegen alt stilisiert. Dabei galt ohne belastbare Untersuchungen die Annahme, dass nur junge Menschen ein Interesse an der Weltenrettung hätten, den Alten hingegen sei das Thema wegen ihrer begrenzten Restlebensdauer egal.

Auch mit diesem Glauben räumt die EIB-Umfrage auf: „Besonders besorgt über den Klimawandel zeigt sich die Altersgruppe ab 65 Jahre“, stellt die EIB in ihrer Zusammenfassung fest: „In dieser Altersgruppe sehen 63 Prozent im Klimawandel eine der drei größten Herausforderungen für Deutschland. Bei den 15-29-Jährigen und den 30-49-Jährigen sind es lediglich 50 Prozent beziehungsweise 40 Prozent.“

2.4. Der Klimawandel in den Medien

Am 19. 6. 2019 veröffentlicht der US Fernsehsender CNN das folgende Foto

mit der Meldung , dass das Bild eines  Hundeschlittens im Wasser in Grönland ein weiterer Beweis (neben hungernden Eisbären, geschrumpften Gletschern, gestrandeten Walrossen und ausgetrockneten Seen ) für die fortschreitenden Klimakatastrophe sei. Foto und Meldung gingen weltweit durch die Medien.

Einige Tage später folgte, etwas diskreter, die Präzisierung, dass der dänische Meteorologe Olsen  (Dänisches Meteorologisches Institut in Kopenhagen) die vermeintlich brisante Botschaft seines von ihm gemachten Fotos relativiert. Er stimme damit überein, dass das Bild „eher einen symbolischen, denn wissenschaftlichen“ Wert habe, twitterte der Forscher. In  der abgebildeten Region kämen Situationen wie auf dem Foto öfters vor. Das Eis an der abgebideten Stelle sei sogar besonders dick,  so dass das Wasser des geschmolzenen Schnees nicht durch eventuell vorhandene Löcher abfließen kann.

Dieses Ereignis ist kennzeichnend für die heutige Diskussion des Klimawandels. Einerseits eine sehr präsente Öffentlichkeit  aus Politikern, Medien, NGO’s und Bürgern, die in jedem Wetterereignis ein Anzeichen für eine bevorstehende Klimakatastrophe sieht, andererseits, weniger sichtbar, ein nicht geringer Teil der Klimawissenschaftler der die Schlussfolgerungen des IPCC’s nicht teilt.
Einen sehr guten Einblick in die Problematik dieser Auseinandersetzungen der verschieden Gruppen von Wissenschaftlern,  Politikern und Wirtschaftsorganisationen gibt in hervorragender Weise Dr. habil Harald Kehl, ehemals am Institut für Ökologie der TU Berlin (21).

2.4.1 Verschwörungstheorien oder  Gefälligkeitswissenschaft?

Auf Cicero online liest man am 18. Februar 2021 (21h) :

„Der renommierte Physiker Tobias Unruh beklagt eine Vereinnahmung der Wissenschaft durch die Politik im Zuge der Corona-Pandemie.[…]

Und so mutet es extrem befremdlich an, dass die Leopoldina, also unsere Nationale Akademie der Wissenschaften, in einer Stellungnahme zur Coronavirus-Pandemie schreibt: „Trotz Aussicht auf einen baldigen Beginn der Impfkampagne ist es aus wissenschaftlicher Sicht unbedingt notwendig, die weiterhin deutlich zu hohe Anzahl von Neuinfektionen durch einen harten Lockdown schnell und drastisch zu verringern.“ […]

Es ist unerträglich, dass sich eine unserer renommiertesten wissenschaftlichen Einrichtungen unter dem Deckmantel ihrer wissenschaftlichen Expertise für knallharte politische Forderungen der derzeitigen Bundes- und Landesregierungen einsetzt.(…) „

Einige Tage vorher hatte die Welt online veröffentlicht:

„Das Bundesinnenministerium spannte in der ersten Welle der Corona-Pandemie im März 2020 Wissenschaftler mehrerer Forschungsinstitute und Hochschulen für politische Zwecke ein (21i). Es beauftragte die Forscher des Robert-Koch-Instituts und anderer Einrichtungen mit der Erstellung eines Rechenmodells, auf dessen Basis die Behörde von Innenminister Horst Seehofer (CSU) harte Corona-Maßnahmen rechtfertigen wollte.[…]

 Eine Gruppe von Juristen hat den E-Mail-Verkehr in einer mehrmonatigen rechtlichen Auseinandersetzung mit dem Robert-Koch-Institut erstritten.

Im E-Mail-Wechsel bittet etwa der Staatssekretär im Innenministerium, Markus Kerber, die angeschriebenen Forscher, ein Modell zu erarbeiten, auf dessen Basis „Maßnahmen präventiver und repressiver Natur“ geplant werden könnten.

Die Wissenschaftler erarbeiteten dem Schriftverkehr zufolge in nur vier Tagen in enger Abstimmung mit dem Ministerium Inhalte für ein als geheim deklariertes Papier, das in den folgenden Tagen über verschiedene Medien verbreitet wurde.

Darin wurde ein „Worst-Case-Szenario“ berechnet, laut dem in Deutschland mehr als eine Million Menschen am Coronavirus sterben könnten, würde das gesellschaftliche Leben so weitergeführt wie vor der Pandemie.“

Anfang Februar 2021 veröffentlicht das Potsdamer Institut für Klimafolgenforschung PIK eine Studie die nahelegt, dass der Klimawandel eine wichtige Rolle bei der Entstehung der Corona Pandemie spielt (21j).

„ Globale Treibhausgasemissionen haben im Laufe des letzten Jahrhunderts den wahrscheinlichen Ursprungsort von SARS-CoV-2 in Südchina zu einem Hotspot für Coronaviren gemacht, die von Fledermäusen übertragen werden. Klimatische Veränderungen in dieser Region haben das Wachstum von Waldgebieten befördert, die Fledermäusen geeignete Habitate bieten. Dies ist das Ergebnis einer neuen Studie von Wissenschaftlerinnen und Wissenschaftlern der Universität Cambridge, des Potsdam-Instituts für Klimafolgenforschung (PIK) und der Universität Hawai’i-Manoa

 Die heute in der Zeitschrift Science of the Total Environment veröffentlichte Studie liefert einen Mechanismus, der dem Klimawandel eine direkte Rolle bei der Entstehung von SARS-CoV-2 zuweisen könnte – dem Virus, das die COVID-19-Pandemie verursachte.“ (https://www.sciencedirect.com/science/article/pii/S0048969721004812?via%3Dihub )

Das PIK wird zu etwa gleichen Teilen von Bund und Land finanziert. Das Förderungsbudget betrug 2019 etwa 30 Millionen Euros. Wissenschaftler des PIK waren maßgeblich an der Entwicklung des Konzepts der Großen Transformation sowie des Pariser 2°C Temperaturerhöhungslimits beteiligt.

Aus der Rolle der Klimaerwärmung als möglicher Faktor der Coronaentstehung machen die Medien eine Gewissheit:

Covid-19 Wie der Klimawandel zur Corona-Pandemie führte,  MDR Wissen (21k) .

Etwa zum gleiche Zeitpunkt veröffentlicht die Universität Hamburg eine Studie, die nicht in das Weltbild der Klimaschützer und Neugestalter der Weltordnung passt.

In einer umfangreichen Analyse zum Ursprung des Corona-Virus kommt der Nanowissenschaftlers Prof. Wiesendanger zum Ergebnis,  dass die Ursache der Pandemie ein Laborunfall des virologischen Instituts in Wuhan sein könnte und nicht der örtliche Wildtiermarkt (21l).  Diese Feststellung stösst auf scharfen Protest des Mainstreams u.a. von Fernsehjournalisten und dem  AStA der Universität Hamburg, der erklärt: „Die ‚Studie‘ von Herrn Wiesendanger der Uni Hamburg entspricht nicht den wissenschaftlichen Standards, die wir von einer Universität erwarten. Sie spielt stattdessen nur Verschwörungstheoretiker*innen in die Hände und schürt anti-asiatischen Rassismus.“

Das virologische Labor in Wuhan wurde von der Weltgesundheitsorganisation WHO und anderen offiziellen Stellen immer wieder ausgeschlossen. Die Hamburger Studie führt an, dass mehrere wissenschaftlich Originalpublikationen belegen, dass eine  Forschergruppe am „Wuhan Institute of Virology“ über viele Jahre hinweg nicht nur natürlich vorkommende Coronaviren untersucht hat, sondern diese gentechnisch manipuliert hat mit dem Ziel, diese für den Menschen ansteckender und gefährlicher zu machen.

2.5 Was ist gesichert, was ist noch zu klären?

Nach Kehl kann als gesichert gelten, dass auf die markante Abkühlung zwischen etwa dem 15. und 19. Jahrhundert (kleine Eiszeit)  eine mehr oder weniger kontinuierliche Erwärmung folgte. So sind die Temperaturen in den letzten ca. 150 Jahren global  um 0.6 ± 0.2 K gestiegen (2004) und erreichten zu Beginn des 21. Jahrhunderts etwa die Temperaturen der Mittelalterlichen Warmzeit (s. auch 3.3.1 der globale Temperaturanstieg).

Es bestehe kein Zweifel daran, dass menschliche Tätigkeit einen negativen Einfluss auf die Atmosphäre haben könne und CO2 klimawirksam sei und eine nachhaltige Umweltpolitik national und international höchste Priorität haben sollte. Umstritten sei dagegen, in welchem Umfang der heutige Temperaturanstieg auf den durch menschliche Aktivitäten gestiegenen CO2 – Gehalt der Atmosphäre zurückzuführen sei ( anthropogenic global warming : AGW). Mittlerweile bezweifeln  etliche Wissenschaftler die zentrale Rolle des Kohlendioxids im komplexen Klimagefüge (s. unten, Einfluss von Sonnenaktivität, Wasserdampf und Wolken).

Die AGW- Hypothese nach einer Veröffentlichung des IPCC aus dem Jahre 2018  (21a):

„Human activities are estimated to have caused approximately 1.0°C of global warming above pre-industrial levels, […] „

„Es wird angenommen, dass die menschlichen Aktivitäten  etwa 1.0°C globaler Erwärmung gegenüber dem vorindustriellen Niveau verursacht haben.“

Diese Auffassung wird in Deutschland durch die Mehrzahl der Politiker und den Medien vertreten.  Die Stellungnahme der Wissenschaftler, die die AGW- Hypothese für nicht richtig halten wird bis auf wenige Ausnahmen nicht publik gemacht. Im Kapitel  2.7 werden die Aussagen einer kleinen Auswahl der  durchaus zahlreichen AGW- kritischen Wissenschaftler zitiert (siehe auch die wissenschaftlichen Arbeiten über den Sonneneinfluss in Abschnitt 4.2.2).

2.5.1 Die Rückkopplung von Wasserdampf und Wolken

Von den Gegnern der CO2- Hypothese wird kritisiert, dass die Klimaprognosen des IPCC von Temperaturerhöhungen bis zu 5°C auf der Annahme einer zu starken positiven Rückkopplung zwischen dem relativ geringen CO2 Treibhauseffekt und der stärkeren Treibhauswirkung des Wasserdampfs beruhen (22). Diese Modelle hätten jedoch nicht einmal die gegenwärtige Entwicklung  korrekt wiedergibt wie John Christy Anfang 2016  bei der Anhörung des  Subcommittee on Space, Science, and Competitiveness des US Repräsentantenhauses über die Größenordnung des menschlichen Einflusses auf das globale Klima darstellt (23).


Bild 5: Die grünen und blauen Messpunkte sind das Ergebnis von Satelliten- und Ballontemperaturmessungen,
die rote Kurve ist die Voraussage des Klimamodells.

John Christy ist Distinguished Professor of Atmospheric Science und Director of the Earth System Science Center an der University of Alabama in Huntsville und  entwickelte  zusammen mit Roy Spencer einen auf Satellitendaten basierende Temperaturmessung der Atmosphäre. In den Jahren 1992 bis 2007 arbeitete Christy an den Sachstandsberichten des IPCC.

Christy ist der Ansicht, die Klimamodelle würden den globalen Temperaturanstieg gegenüber den Messdaten zu hoch angeben. Er bestreitet nicht den Temperaturanstieg als solchen, aber er sieht darin keine Bedrohung für die Menschheit.

Eine Auswertung von Messdaten des Gleichgewichts zwischen der auf die Erdatmosphäre einfallenden Strahlungsenergie der Sonne  und der von der Erde abgestrahlten kurzwelligen und langwelligen Strahlung, ergeben nach Lindzen, R. S. und Choi, Y-S  eine negative Rückkopplung zwischen CO2 und Wasserdampf und  eine deutlich kleinere Temperaturerhöhung als die IPCC Berechnungen (24). Die Messdaten sind Satellitenmessungen im Rahmen des ERBE- Projekts (Earth‘s Radiation Budget Experiment).

2.5.2 Die Klimasensitivität und Rückkopplungseffekte

„Die Klimasensitivität der Erde wurde oft als der „Heilige Gral“ der Klimawissenschaft angesehen. Es gibt keine andere Maßzahl, die soviel über den Klimawandel aussagt wie die Klimasensitivität. Sie ist ein Maß für die Änderung der mittleren globalen Erdoberflächentemperatur in Folge einer Verdopplung der atmosphärischen CO2-Konzentration. Der Wert der Klimasensitivität liegt nach Einschätzung des fünften Sachstandsberichts des Intergovernmental Panel on Climate Change (IPCC) wahrscheinlich zwischen 1,5 und 4,5 °C und umfasst somit eine Unsicherheit, die sich seit den frühen Untersuchungen der Klimasensitivität in den 1970er Jahren nicht verringert hat.“ (25)

Bild 6: Das Gegenstrahlungsmodell des natürlichen Treibhauseffekts (Kiehl and Trenberth, 1997).

Mauritsen und Stevens stellen fest (26), dass in den aktuellen Klimamodellen eine Klimasensitivität zwischen 2 und 4.6 K angenommen wird sowie eine schwache Zunahme der weltweiten mittleren Niederschläge .Die aktuellen Beobachtungen des Klimas ergeben jedoch eine Klimasensitivität, die am unteren Ende dieses Bereichs liegt und dass einige Änderungen im Wasserkreislauf falsch eingeschätzt werden. Diese Diskrepanzen lassen es möglich erscheinen, dass einige wichtige Rückkopplungen in den Klimamodellen fehlen. Eine zu den bisherigen Annahmen widersprüchliche Hypothese schlägt vor, dass sich in der tropischen Atmosphäre die wolkenfreien und trockenen Bereiche bei einer Klimaerwärmung (verursacht z.B. durch CO2) ausdehnen und somit einen größeren Anteil infraroter Strahlung ins All austreten lassen. Dieser sog. Iriseffekt würde eine negative Rückkopplung darstellen, die nicht in den Modellen enthalten ist. Die Autoren finden, dass durch die Berücksichtigung dieses Effekts bei Erhöhung der CO2 Konzentration die Ergebnisse der Simulationen sowohl für die Temperatur wie auch für den Wasserkreislauf besser mit den Beobachtungen übereinstimmen.

Scafetta (27) schreibt in seinen Schlussfolgerungen „…….obwohl die Gleichgewichts-Klimasensitivitäten ECS bei CO2-Verdopplung in den Klimamodellen (General Circulation Models) weit um einen Mittelwert von 3°C schwanken, so zeigen neuere Studien, dass diese Werte zu hoch sind. Seit dem Jahre 2000 gibt es eine Tendenz „….(in den Studien)…“ kleinere Klimasensitivitäten zu finden (siehe Abb. ).Die jüngsten Studien schlagen …..Gleichgewichts-Klimasensitivitäten ECS von weniger als 2°C vor…..So legen die die Ergebnisse nahe, dass die Klimamodelle (GMC’s) die wirkliche menschengemachte globale Erwärmung um das 2- bis 3-fache vergrößern. Es könnte notwendig sein die Treibhausgas-Theorie einer gründlichen Überprüfung zu unterziehen.“

Bild 7: Zusammenstellung der im Laufe der Jahre veröffentlichten Klimasensitivitäten ECS bei CO2 Verdopplung.
Quelle: http://www.iieta.org/sites/default/files/Journals/IJHT/35.Sp01_03.pdf

2.5.3 Zusammenhang globale Temperatur und CO2 im Lauf der Erdgeschichte

Bild 8: Geologische Zeitskala : CO2-Konzentration und Temperaturschwankungen

Die obenstehende  Grafik zeigt in einer Gegenüberstellung die Entwicklung von Temperatur und CO2 im Laufe der Erdgeschichte (28). Obwohl in der Perm-Periode das CO2 Niveau niedriger als heute war (teilweise weniger als 210 ppm, aktuell 400ppm), war die Temperaturerhöhung deutlich höher (ca 10°C ) als der aktuelle Anstieg von ca 1°C
Auf der Webseite “Real Climate” erscheint 2014 ein Artikel “Can we make better graphs of global temperature history ?“ (29), der darauf verweist , dass die obige Kurve (28) im Laufe der Zeit ständige Veränderungen erfahren hat und nicht auf den neuesten Daten beruht.

Professor W. Jackson Davis , Leiter des amerikanischen Umweltinstituts ESI analysiert im Jahre 2017 den CO2/T Zusammenhang mit Hilfe von in den letzten 10 Jahren veröffentlichten Proxymessungen der Temperaturen und der atmosphärischen Kohlendioxid-Konzentrationen während des Phanerozoikums (~ 540 Millionen Jahre bis heute) (30).

Übersetzung durch den Autor: „Die Temperatur der Proxy-Datenbank umfasst Tausende von Messungen durch Hunderte von Forschern für die Zeitperiode von vor 522 Millionen Jahren bis heute, während die Proxies des atmosphärischen CO2 während des Äons (Erdzeitalters) des Phanerozoikums 831 Messungen umfassen, die voneinander unabhängig von Hunderten von Forschern für den Zeitraum von vor 425 Millionen Jahren bis heute veröffentlicht wurden. Solch ein bisher nicht existierendes Datenvolumen über das Klima des Phanerozoikums ermöglicht die bis heute genaueste empirische Erfassung der Relation zwischen der atmosphärischen CO2-Konzentration und der Temperatur des Klimas der Vergangenheit, was das Ziel dieser Studie ist.“

Definition: Ein Klimaproxy ist ein indirekter Anzeiger des Klimas, der in natürlichen Archiven wie Baumringen, Stalagmiten, Eisbohrkernen, Korallen, See- oder Ozeansedimenten, Pollen oder menschlichen Archiven wie historischen Aufzeichnungen oder Tagebüchern aufgezeichnet wurde (Wikipedia)

Bild 9: Klima im Verlauf der Erdgeschichte (rote Kurve :Temperatur, grüne Kurve CO2-Konzentration)

δ18O bzw. Delta-O-18 ist ein Maß für das Verhältnis der stabilen Sauerstoff-Isotope 18 O und 16 O. Ein Anstieg des δ18O um 0,22 ‰ entspricht einer Abkühlung um 1 K. (Wikipedia) https://de.wikipedia.org/wiki/%CE%9418O

Zur obigen Abbildung kommentiert Davis: „Proxies der atmosphärischen CO2-Konzentration und der Temperatur über der gleichen Zeitachse (Bild oben) zeigen eine offensichtlich Entkopplung und sogar eine gegenläufige Beziehung. Z. b. eine Spitze der CO2-Konzentration bei etwa 415 Mybp tritt bei einem Temperatur-Plateau um 445 Mybp auf. Ähnlich fällt ein CO2 –Peak bei 285 Mybp mit einem Temperaturplateau bei etwa 280 Mybp, und damit mit der Permokarbon Eiszeit (in der Abbildung mit dem Label 2 bezeichnet) zusammen. In jüngeren Perioden, wo die die Auflösung der Datenerfassung höher ist, ist offensichtlich der gleiche Trend zu beobachten. Die CO2 Konzentration nimmt eine Spitze bei etwa 200 Mybp während einer Abkühlperiode an, genauso wie ein schwächerer CO2 Peak bei etwa 37 Mybp. Die kürzeren Abkühlungsperioden des Phanerozoikums, mit den Labels 1-10, scheinen keinen bestimmten Zusammenhang mit Schwankungen der atmosphärischen CO2-Konzentration zu haben“
Im Kapitel Schlussfolgerungen stellt Davis fest : “…..das wichtigste Ergebnis dieser Studie ist, dass über fast während des gesamten Phanerozoischen Klimas weder die atmosphärische CO2-Konzentration noch der der Strahlungsantrieb ΔRFCO2. mit T korreliert ist“.

Definition: Strahlungsantrieb (radiative forcing) ist die Differenz zwischen absorbierter  Sonneneinstrahlung und Energierückstrahlung in den Weltraum. Der CO2- Strahlungsantrieb ist die durch eine CO2-Änderung verursachte Variation, wenn alle anderen Einflussgrößen (z.B. Sonneneinstrahlung) konstant gehalten werden.

Davis erklärt den weitgehend fehlenden Zusammenhang zwischen Temperatur und CO2- Konzentration damit, dass der Strahlungsantrieb und damit die Temperaturerhöhung eine logarithmische Funktion der Kohlendioxidkonzentration ist, und bei den sehr hohen ppm Werten des Phanerozoikums bis über 5000 ppm , eine CO2 Erhöhung keinen Einfluss auf die Temperatur hätte. Mit abnehmendem CO2 Gehalt zum Ende des Phanerozoikums nimmt der marginale Strahlungsantrieb (die Änderung des Strahlungsantriebs bei einer minimalen Änderung des CO2) wohl zu, doch die Studie zeigt dass in diesen jüngsten Klimaepochen die Temperatur mit zunehmendem CO2 abnahm.. CO2 war nicht der Haupttreiber des Klimas des frühen Känozoikum.

Betrachtet man den sehr viel jüngeren Zeitraum zwischen 11 000 und 200 (Beginn der Industrialisierung), so ist festzustellen: In diesem Zeitraum existiert keine Korrelation und gar keine Kausalität. Die beiden Kurven unten in Bild 10  stellen die Ergebnisse von Eiskernbohrungen  dar, die in den Dateien GISP2 (Temperatur) und EPICA Dome C (CO2) der US National Oceanic and Atmospheric Administration (NOAA) zusammengefasst sind (31).
(Der jüngste Temperaturanstieg des Holozäns fehlt , da die verfügbaren Daten der Eiskernbohrungen nicht bis ins 20. Jahrhundert reichen).

Bild 10: The upper panel shows the air temperature at the summit of the Greenland Ice Sheet, reconstructed by Alley (2000) from GISP2 ice core data. The time scale shows years before modern time. The rapid temperature rise to the left indicate the final part of the even more pronounced temperature increase following the last ice age. The temperature scale at the right hand side of the upper panel suggests a very approximate comparison with the global average temperature (see comment below). The GISP2 record ends around 1854, and the two graphs therefore ends here. There has since been an temperature increase to about the same level as during the Medieval Warm Period and to about 395 ppm for CO2. The small reddish bar in the lower right indicate the extension of the longest global temperature record (since 1850), based on meteorological observations (HadCRUT3). The lower panel shows the past atmospheric CO2content, as found from the EPICA Dome C Ice Core in the Antarctic (Monnin et al. 2004). The Dome C atmospheric CO2 record ends in the year 1777.

Nach der voranstehenden Graphik war der Zeitraum von vor 7000 bis 8000 Jahren sehr warm (Klimaoptimum Holozän), wärmer als heute.

„Vor 8 000 Jahren wurde die Erde von einem Interglazialklima bestimmt, das wärmer und feuchter war als es heutzutage in vielen Teilen der Welt ist. Tropenwälder in Afrika (und wahrscheinlich auch in Asien ) waren flächenmäßig ausgedehnt und Wüstenregionen in Afrika und Asien stark reduziert.“ (32)

Als das Klima wärmer war, war die globale Ausdehnung der Wüsten geringer, weil die Oberfläche der Ozeane, nämlich 70% der Erdoberfläche, sich ebenso wie das Land erwärmte und dadurch mehr temperaturbedingte Wasserverdampfung und Regenfälle auf dem Land verursacht wurden. (31, Watts)

Die Wissenschaftlichen Arbeiten in (33) untersuchen die die Eiszeit-/Warmzeitzyklen der letzen ca. 400 000 Jahre. Sie stellen jeweils eine Korrelation fest, die Temperaturanstiege sind regelmässig von einer CO2 -zunahme begleitet. Dabei steigt immer zuerst die Temperatur an, der CO2-Anstieg  folgt mit einer Verzögerung von ca. 500 bis ca 1500 Jahren.

Caillon stellt bei seinen Untersuchungen (34) fest, dass beim Temperaturanstieg des Eiszeitendes Termination III (240 000 Jahre vor heute) in der Antarktis die CO2-Konzentration erst verzögert anwächst, während es sich auf der Nordhalbkugel umgekehrt verhält.

2.6 Die politische Bedeutung des IPCC und sein Selbstverständnis

„Der Intergovernmental Panel on Climate Change (IPCC) ist eine Institution der Vereinten Nationen. In seinem Auftrag tragen Wissenschaftlerinnen und Wissenschaftler weltweit den aktuellen Stand der Klimaforschung zusammen und bewerten anhand anerkannter Veröffentlichungen den jeweils neuesten Kenntnisstand zum Klimawandel. Der IPCC bietet Grundlagen für wissenschaftsbasierte Entscheidungen der Politik, ohne jedoch konkrete Lösungswege vorzuschlagen oder politische Handlungsempfehlungen zu geben.“ (35))

Da der IPCC  keine eigene Forschungsarbeit leistet, sind die ausgewählten Ergebnisse und Empfehlungen fortlaufend Gegenstand erbitterter Diskussionen.

So drängen mehr als 300 Wissenschaftler in einer Petition initiiert von Richard Lindzen, Professor Emeritus Massachusetts Institute of Technology, Präsident Trump die USA aus dem Pariser Klimavertrag zurückzuziehen, da die CO2 Reduktionsmaßnahmen wissenschaftlich nicht berechtigt sind und außerdem soziale und wirtschaftliche Gefahren beinhalten. (36) Die Klimawarner begegnen den Skeptikern meist mit der Behauptung dass 97% der Klimawissenschaftler mit der Schlussfolgerung eines menschengemachten Klimawandels übereinstimmen. Diese Zahl ist das Ergebnis einer Studie mit einer verzerrten Auswertungsmethode (37) und wird von führenden Klimawissenschaftlern wie z.B. Nils-Axel Mörner (54) nicht geteilt. Von den Verfechtern der CO2-Hypothese werden jene Wissenschaftler, welcher dieser Einschätzung skeptisch gegenüber stehen, als sogenannte „Klimaskeptiker“, „Klimakritiker“ oder „Klimaleugner“ (denier, AGW heretics) charakterisiert (21) (Die Klimadebatte und die neue „Verantwortung“).

Kehl schreibt: „Dass Skepsis gegenüber offiziellen Verlautbarungen des IPCC und seinen Protagonisten angebracht ist, zeigen Falschmeldungen, Manipulationen und dubiose Wissenschaft wie die durch Datenpiraterie an die Öffentlichkeit gelangte E-Mailkorrespondenz zwischen führenden Vertretern der AGW-Hypothese .“ (s.a. Anhang)
° Zweifel säte das vom IPCC  prognostizierte  Verschwinden des Himalaya Gletschers bis zum Jahre 2035. Die Nachforschungen eines kanadischen Geografen ergaben, dass die Information aus einer Veröffentlichung eines russischen Gletscherexperten stammte , der allerding als Datum nicht 2035 sondern 2350 angegeben hatte (37 a).
° Spektakulär ist die sog Hockeystick- Diskusssion:
Der IPCC Bericht 2001 enthält eine Temperaturkurve des US-Klimaforschers Michael Mann, die vor dem 20. Jahrhundert einen flachen Verlauf zeigt und dann einen steilen Anstieg. Die Temperaturänderungen der mittelalterlichen Wärmeperiode und der kleinen Eiszeit, die im IPCC-Bericht 1990 noch vorhanden sind, tauchen nicht mehr auf. Dieses Diagramm wurde als letztes und wichtigstes Beweismittel für eine menschengemachte Klimaerwärmung gewertet.  (21) (Rekonstruktion der mittleren Temperatur auf der Nordhalbkugel in den vergangenen 1000 bis 2000 Jahren). Nach massiven Vorwürfen erwies sich, dass die Daten manipuliert worden waren (38).
° Der e-Mail Skandal im Jahre 2009 zeigt anhand  von gehackten Mails aus dem Climate Research Unit Hadley Center, wie prominente Klimaforscher sich darüber unterhalten,  wie sie mit Kritikern umgehen, wie Datensätze so verändert werden, dass sie zur offiziellen Theorie passen, und wie kritische Journalisten boykottiert werden sollen (39, 40).

So schreibt H: Kehl weiter : „Gleichwohl werden aus gutem Grunde die widersprüchlichen Verlautbarungen und Erwartungen von Vertretern der „CO2-Hypothese“ intensiver hinterfragt, da deren – wohl oft von Ideologie und Geltungssucht geprägten – Äußerungen von hoher gesellschaftspolitischer Bedeutung sind und besonders in den Medien zu hysterischen Reaktionen geführt haben und die Klimafrage von einigen Politikern und Wissenschaftlern zum „Schicksalsthema“ der Menschheit schlechthin hochstilisiert wird.“ (21) (Die Klimadebatte und die neue Verantwortung).

Ein Interview mit Stephen Schneider,  Klimawissenschaftler und langjähriger Mitarbeiter des Weltklimarats (IPCC), illustriert das Dilemma der Klimaexperten (21) (Die Klimadebatte und die neue Verantwortung) „Einerseits sind wir als Wissenschaftler ethisch an die wissenschaftliche Methode gebunden, d. h. die Wahrheit zu sagen, die ganze Wahrheit und nichts als das – einschließlich all unserer Zweifel, Vorbehalte, Wenn’s, Und’s, und Aber’s. Andererseits sind wir nicht nur Wissenschaftler, sondern auch menschliche Wesen. Und wie die meisten Menschen würden wir die Welt gerne als besseren Ort sehen, was in diesem Kontext bedeutet, dass wir das Risiko eines potentiell katastrophalen Klimawandels verringern wollen. Um das zu tun benötigen wir eine breite Unterstützung, wir müssen die Öffentlichkeit dazu bringen, sich eine Vorstellung davon zu machen. Dazu sind viele Medienberichte notwendig. Also müssen wir ängstigende Szenarien liefern, einfache, dramatische Äußerungen machen, und Zweifel, die wir vielleicht haben, wenig erwähnen. Diese „ethische Doppelbindung“, in der wir uns oft befinden, kann durch keine Formel gelöst werden. Jeder von uns muss entscheiden, was das richtige Gleichgewicht ist zwischen effektiv sein und ehrlich sein. Ich hoffe, dass es auf beides hinausläuft.“
(deutscher Wortlaut Wikipedia: https://de.wikipedia.org/wiki/Stephen_Schneider)

Weitere Kommentare, die zeigen welchen Einfluß und welche Bedeutung von  Politik und  Umweltorganisationen dem IPCC und ähnlichen Umweltprojekten zugeordnet werden, siehe (41):
„Ein weltweiter Klimaschutzvertrag muß geschlossen werden, auch wenn es keinen wissenschaftlichen Beweis für die Existenz des Treibhauseffektes gibt“ (Richard Benedick, President of the National Council for Science and the Environment, zitiert von Dixy Lee Ray in ihrem Buch Trashing the Planet (1990))

„Wir feuern Bilder ab statt Raketen – Meinungsbomben, die von den Medien geliefert werden“ (Robert Hunter, Greenpeace, Sink the Rainbow, von John Dyson, London, 1986)

H. Kehl bemerkt (21) (Die Klimadebatte und die neue Verantwortung): „Und es sollte nicht allzu sehr verwundern, wenn nicht nur vermutet wird, dass die gegenwärtige – minimale – globale Temperaturzunahme, mit dem Aufhänger CO2 – Anstieg, nur ein probates Argumentations-Vehikel ist zur „politisch korrekten“ Durchsetzung eben dieser eher energie-wirtschaftlichen Intentionen, auch unter Inkaufnahme zutiefst antidemokratischer Zielsetzungen“

Nach dem Kopenhagener Klimagipfel berichtet der Spiegel (42): „Um eine global nachhaltige Lebensweise zu realisieren, bräuchten wir umgehend eine „große Transformation“, fordert etwa Hans Joachim Schellnhuber, Direktor des Potsdamer Instituts für Klimafolgenforschung. Was genau damit gemeint ist, bleibt oft vage. Ein Teil, wenn nicht sogar das Herzstück dieser großen Transformation ist in den Augen mancher Klimaforscher – und anderer Wissenschaftler, die sich an der Diskussion beteiligt haben – ein anderes Politikregime: „Wir benötigen eine autoritäre Regierungsform, um den Konsens der Wissenschaft zur Treibhausgasemissionen zu implementieren,“ argumentieren die Australier David Shearman and Joseph Wayne Smith in ihrem Buch „The Climate Change Challenge and the Failure of Democracy“.

Der bekannte Klimaforscher James Hansen fügt ebenso resigniert wie ungenau hinzu, dass im Fall der Klimaveränderung der demokratische Prozess nicht funktioniere.

2.7 Einige prominente Wissenschaftler, die die AGW Hypothese nicht teilen

John Christy, ( Ph.D. Wissenschaften der Atmosphäre, Distinguished Professor of Atmospheric Science und Director of the Earth System Science Center an der University of Alabama in Huntsville), erklärt vor einem Gremium des House of Representatives der Vereinigten Staaten in Bezug auf die Klimamodelle (23):

“These models failed at the simple test of telling us ‘what’ has already happened, and thus would not be in a position to give us a confident answer to ‘what’ may happen in the future and ‘why‘. “

“The information in this figure (Autor: Bild 5 oben) provides clear evidence that the models have a strong tendency to over-warm the atmosphere relative to actual observations.  On average the models warm the global atmosphere at a rate 2.5 times that of the real world.”

 Horst Malberg, (Professor em. Für Meteorologie und Klimatologie, ehem. Direktor des Meteorologischen Instituts der Freien Universität Berlin), analysiert den Anteil der Sonneneinwirkung an der globalen Erwärmung (80):

Für die vielen Treibhaustheoretiker ist der anthropogene Treibhauseinfluss die primäre Ursache der globalen und regionalen Erwärmung. Die natürlichen Klimaprozesse sollen ihrer Meinung nach nur noch eine untergeordnete Rolle beim Klimawandel spielen. […]

In Anbetracht eines sich seit Jahrmillionen auf allen Zeitskalen permanent wandelnden Klimas muss man sich fragen, wie realistisch es ist, dass die natürlichen Klimaprozesse bei der globalen Erwärmung im Vergleich zum anthropogenen Treibhauseffekt nur noch eine sekundäre Rolle spielen sollen. Dieses gilt insbesondere für den Einfluss der Sonne.

[…] Der veränderliche solare Energiefluss ist mit an Sicherheit grenzender Wahrscheinlichkeit der dominierende Antrieb im Klimasystem der Erde.

[…] Damit folgt: Der Temperaturanstieg in den letzten 150 Jahre kann maximal zu einem Drittel durch den anthropogenen Treibhauseffekt verursacht worden sein. Der anthropogene Treibhauseffekt wird somit in den Klimamodellen des UN–Klimareports 2007 wesentlich überschätzt.“

Horst-Joachim Lüdecke, (Physiker für Strömungsmechanik und emeritierter Professor an der Hochschule für Technik und Wirtschaft des Saarlandes)  deckt in seinem Buch (21b) umfassend die verschiedenen wissenschaftlichen, gesellschaftlichen und politischen Aspekte der Energiewende und des Klimawandels, speziell in Deutschland, ab.

Zur wissenschaftlichen Basis der AGW-Hypothese und zur Diskussion ihrer Anhänger und Kritiker schreibt er:

„Einer der berühmtesten Physiker des 20. Jahrhunderts und Nobelpreisträger, Richard Feynman, verdeutlichte dieses moderne Paradigma wie  folgt:  Egal, wie bedeutend der Mensch ist, der eine Theorie vorstellt, egal wie elegant sie ist, egal wie plausibel sie klingt,  egal wer sie unterstutzt: Wenn sie nicht durch Messungen  bestätigt werden kann, ist sie falsch! […]

[…] Die AGW-Hypothese ist indes zwingend falsch. Warum? Sie ist mit dem modernen Paradigma unserer naturwissenschaftlichen Wahrheitsfindung nicht vereinbar. Unter Paradigma versteht man eine allgemein verbindliche Denk- und Vorgehensweise. Es handelt sich im vorliegenden Fall um die Art und Weise, wie zuverlässige Kenntnisse über die Physik, hier über die Physik von Klimaänderungen, erlangt werden können. Das Paradigma der modernen Naturwissenschaft ging von Galileo Galilei aus und kam unverändert über Newton, Einstein und alle Nachfolger bis hin zur modernsten Physik auf uns. Der Grund, warum die AGW-Hypothese falsch ist: Sie kann bis heute nicht durch Messungen belegt werden. […]

[…] wird schnell deutlich,  dass die  Hypothese von einer gefährlichen globalen Erwärmung durch anthropogenes CO2 ihren alleinigen Ursprung in fiktiven Klimamodellrechnungen, aber nicht in den realen Messdaten hat. Dies bestätigt zum Beispiel ganz unverblümt Prof. Chris Folland vom größten Klimaforschungszentrum Englands, dem Hadley Centre for Climate Prediction and Research  (CRU): 

” Die Messdaten sind nicht maßgebend. Wir begründen unsere Empfehlungen nicht mit Messdaten. Wir begründen Sie mit Klimamodellen”.    

[…] Initiativen zu Klima-Sachdiskussionen mit Diskussionspartnern beider Seiten scheitern regelmäßig an den IPCC-Experten, sich öffentlichen Diskussionen mit ihren Meinungskontrahenten zu stellen [157]. […]“

Die Kommunikation der Wirtschaft, Politik und Medien kommentiert Lüdecke wie folgt:

„Die deutsche Intelligenz in Medienredaktionen, Hochschulen und Führungsetagen von Unternehmen, die diese Entwicklungen und die entstehenden Ökostrukturen nicht billigt, schweigt dennoch, duckt sich weg und versucht zu profitieren. […] Zivilcourage ist kein deutsches Wort. […]

„Auch bei größter Nachsicht kann man nicht ernsthaft behaupten, die deutschen Medien wurden im Klimageschäft ihrer verpflichtenden Aufgabe nachkommen, sachlich und neutral zu berichten. Es wurde schon betont, dass sich die Mehrheit der Medien-Redaktionen zu freiwilliger Selbstgleichschaltung in Berichten über Klima, CO2, Extremwetter, Arktiseis etc. entschlossen haben.“ […]

„Es ist aber leider eine Gleichschaltung mit den übelsten Klima-Alarmisten. Die Gründe für eine Berichterstattung, die keine ordentlichen journalistischen Recherchen und keine nüchterne sachliche Sicht mehr zulassen, sind:  1) In den deutschen Medienredaktionen sitzen weit überwiegend Redakteure, die Journalismus, Soziologie oder dergleichen studiert haben. […] 2) TV- und Radio-Aufsichtsräte werden nach politischen Kriterien installiert und müssen infolgedessen ihren Redakteuren eine verbindliche Korrektheits-Linie vorgeben.  3) Insbesondere die Printmedien sind auf Einkünfte durch grüne Annoncen angewiesen.“ 

Zur Rolle der Politik und der Medien in der Klimalobby kommentiert Lüdecke (21b)

„Hatten ehemals gegen Windräder klagende Anrainer vor Gericht noch gute Chancen, hat sich dies infolge neuer Rechts- und Auslegungsbestimmungen geändert. Der grundgesetzlich verankerte Schutz von Tieren, hier insbesondere von Vögeln und Fledermäusen, greift nicht mehr. […].  Das der Rechtsprechung von der Politik als primär vorbezeichnete Gut des ” Klimaschutzes” hat Vorrang vor dem Naturschutz. Die Politik bleibt bei dieser Linie, obwohl fachkundige Befürworter grüner Energien freimütig eingestehen, dass weder durch Windradparks noch durch   Solaranlagen in nennenswertem Umfang CO2 vermieden werden kann. […]

Die deutsche Klima- und Energiepolitik ist rational nicht mehr nachvollziehbar. Auffällig ist das sich über viele Jahre erstreckende Verlassen einer gemäßigt kritischen Klima-Sichtweise [14] bis hin zu einer an Diktaturen gemahnenden Klima-Doktrin, […] Das unaufhaltsame Umschwenken wurde nicht mit gesicherten wissenschaftlichen Erkenntnissen begründet, denn die gab es nicht.[…]. Die Politik scherte sich nicht darum.[…] Nicht nur in der Klima- und Energiepolitik hebelt der Fraktionszwang unsere Demokratie aus, denn er hindert die von uns  gewählten Volksvertreter, ihrem geleisteten Amtseid folgend,  nach eigenem Wissen und Gewissen politisch zu entscheiden.  Schlussendlich bietet die Klima- und Energiewende-Berichterstattung unserer Medien den besten Maßstab für die Beschädigung der demokratischen Kultur unseres Landes. Der Mehltau politischer Korrektheit, des Verschweigens von nicht genehmen Fakten, ökoideologischer Belehrungen und einer an die ehemalige DDR erinnernden Klima- und Energiewende-Propaganda haben sich wie eine erstickende Decke über unser Land gelegt.“

Nils-Axel Mörner, (PhD Quartärgeologie, ehem. Dekan der Fakultät für Paläogeophysik und Geodynamik der Universität Stockholm) vergleicht die Konzepte der menschengemachten globalen Erwärmung und der natürlichen globalen Erwärmung (21c).

Übersetzung aus dem Englischen durch den Autor

„Das Konzept der menschengemachten globalen Erwärmung (AGW,) angetrieben durch die CO2-Zunahme in der Atmosphäre, wird mit dem Konzept der natürlichen globalen Erwärmung (NGW), angetriebendurch die Variabilität der Sonnenaktivität, verglichen. Die Anwendung des AGW-Konzepts beruht auf Modellen, während das NGW-Konzept  auf zahlreichen empirischen und gesicherten Fakten beruht. Sogar noch mehr, die langfristige  solare Variabilität kündigt für 2030-2050 ein neues Grosses Solares Minimum (Typus Kleine Eiszeit) mit strengen Klimabedingungen an. Dies ist unverträglich mit all dem Gerede über eine zunehmende sogar sich beschleunigende globale Erwärmung. In gleicher Weise gibt es keine besondere Nachricht über einen zukünftigen Meeresspiegelanstieg der sowohl Tieflandgebiete wie Inseln überfluten wird“

Nir Shaviv, Professor und Vorsitzender  des Racah Instituts der Physik,  Hebrew University von Jerusalem beschreibt den signifikanten Einfluss der Sonne auf die globale Erwärmung (21d).

„To begin with, the story we hear in the media, that most 20th-century warming is anthropogenic, that the climate is very sensitive to changes in CO2, and that future warming will, therefore, be large and will happen very soon, simply isn’t supported by any direct evidence,[…] In fact, there is no evidence on any time scale showing that CO2 variations or other changes to the energy budget cause large temperature variations. There is, however, evidence to the contrary. Tenfold variations in CO2 over the past half-billion years have no correlation whatsoever with temperature;

Since solar activity significantly increased over the 20th century, a significant fraction of the warming should be then attributed to the sun. […]

Most bothersome, however, is that this mindset has compromised the ability to convey the science to the public.

One example from the past month is my interview with Forbes. A few hours after the article was posted online, it was removed by the editors “for failing to meet our editorial standards.” The fact that it’s become politically incorrect to have any scientific discussion has led the public to accept the pseudo-argumentation supporting the catastrophic scenarios. […]

Once China realizes it can’t rely on coal anymore, it will start investing heavily in nuclear power to supply its remarkably increasing energy needs, at which point, the West won’t fall behind“. 

Judith A. Curry, PhD in Geophysik, Professorin für Geo- und Atmosphärenwissenschaften am Georgia Institute of Technology untersucht verschiedene Prognosen der Klimaentwicklung zwischen 2020 und 2050 (21e) und schätzt die maximal bzw  minimal mögliche  Temperaturänderung für diesen Zeitraum ab. Betrachtet werden die folgenden Parameter der natürlichen Variabilität des Klimas

  • Schwankungen der Sonnenaktivität
  • Vulkanausbrüche
  • Ozeanoszillationen mit Perioden über mehrere Jahrzehnte

Bei den Schwankungen der Sonnenaktivität betont sie, dass nicht durch die direkte Einwirkung der Sonnenstrahlung zu betrachten ist, sondern auch die indirekte Wirkung durch Parameter wie die UV-Strahlung, die Änderung der Bewölkung durch den Einfluss kosmischer Strahlung und energiereiche Partikelströme. All diese Effekte haben eine verstärkende Wirkung der Sonnenstrahlung auf die Erdatmosphäre.

Überdies unterliegt die Sonnenaktivität quasiperiodischen Schwankungen und viele Solarphysiker erwarten für das 21. Jahrhundert ein großes Minimum der Sonnentätigkeit.

Es werden 3 Szenarien in Betracht gezogen mit unterschiedlichen Anteilen für die indirekte Sonnenwirkung.

Für die vulkanische Tätigkeit wählt Curry (basierend auf Untersuchungen  von Ingo Bethke vom Bjerknes Centre for Climate Research in Bergen, Norwegen) 3  unterschiedliche Szenarien  der  Abkühlung durch vulkanische Aktivität aus.

Bezüglich der internen Variabilität der Multidekaden-Schwankungen der Ozeane werden 3 Szenarien der zu erwartenden kalten Phase der AMO Oszillation in Betracht gezogen.

Was schließlich den  globalen Erwärmungseffekt in Abhängigkeit der CO2- Emissionen anlangt, werden  Werte für  das sozioökonomische Szenario SSP2.5-4.5  berechnet. (Dieses Szenario beschreibt eine Situation der Welt  mit deutlicher Beschränkung der CO2 Emission auf etwa den heutigen Wert von 40 Gigatonnen/Jahr, Abnahme gegen Null nach 2100). Es werden 4 Szenarien, auf der Basis der vom IPCC AR5 als wahrscheinlich erachteten Temperaturerhöhungen als Funktion des gesamten (kumulierten) CO2-Austosses bis 2050 in Betracht gezogen.

Kombiniert man nun die 4 Emissionsszenarien, die 3 Sonnenwirkungsszenarien, die 3 Vulkanaktivitätsszenarien und die 3 AMO Oszillationsszenarien, so erhält man 108  Kombinationen mit unterschiedlichen Temperaturerhöhungen

Von diesen bis zum Jahre 2050 möglichen Temperaturerhöhungen zeigt die nachfolgende Tabelle  den höchsten zu erwartenden Wert , den niedrigsten zu erwartenden Wert sowie  das Mittel ohne die Extremwerte an.

Die Analyse von Curry besagt, dass die mögliche Erwärmung bis 2050 1°C nicht übersteigen wird, dass aber auch eine Abkühlung möglich ist.

Nicola Scafetta, PhD in Physik, Universität von Neapel Frederico II et al vergleichen die Ergebnisse der Rechenmodelle des IPCC mit der Realität und stellen ein Klimamodell vor, das die Wechselwirkung zwischen dem Sonnendynamo und den Planeten berücksichtigt (21f),(27).(Übersetzung aus dem Englischen durch den Autor)

(21f): Zusammenfassung

„[…] Um das letztgenannte Problem ( Autor: “die merkliche Erwärmung seit dem Beginn des 20.Jahrhunderts“)korrekt zu behandeln, ist es erforderlich die Phänomenologie der natürlichen Klimafluktuationen zu verstehen. Diese werden gut durch mehrere Klimaindizes wie  die Atlantische Multidekaden-Oszillation, die Pazifische Dekaden-Oszillation und die El Nino-Southern Oscillation (Autor ) beschrieben.[…]“

„Diese komplexe natürliche Dynamik ist immer noch nicht in den General Circulation Models (Autor: GCM Rechenmodelle) berücksichtigt, auf denen die AGW Theorie beruht, die hauptsächlich  vom IPCC (Intergovernmental Panel on Climate Change) vertreten wird. […]

Wir finden, dass die Rechenmodelle, während der Zeit der historischen Aufzeichnung (Autor: 1860 bis 2016) , deutlich über der beobachteten Erwärmung, liegen.“

(21f): Einführung

„[…]Auf der dekadischen bis tausendjährigen Zeitskala haben diese Oszillationen Perioden von 9.1 Jahren, die wahrscheinlich ein Sonne-Mond-Gezeiten Zyklus ist, von 10-11 Jahren ,  der 11-jährige Sonnenzyklus , der im 20. Jahrhundert im Mittel 10.5 Jahre betrug, von Quasi-20 Jahren- und Quasi-60 Jahren- Zyklen (Autor: „Quasi“ soll heissen, dass diese Schwingungen regelmässig auftreten, aber keine konstante Periode haben), die in Beziehung mit wichtigen Oszillationen des Sonnensystems durch die Jupiter-Saturn Umlaufbewegungen (Autor: um die Sonne) stehen, von Quasi 115-Jahren und Quasi 980-Jahren  Oszillationen, die in Beziehung zu Schwebungen zwischen Planeten -und Sonnen- Oszillationen stehen. […]“

(27): 4. Vorhersagen des semiempirischen Modells

„Seit 2010 hat Scafetta vorgeschlagen, dass die Dynamik der Klimaaufzeichnungen nahelegt, dass das System nach spezifischen Oberschwingungen oszilliert, die in den Gravitations-und elektromagnetischen Schwingungen der Sonne und des Sonnensystems gefunden werden können.[…]“

(21f): Einführung

„Die neuen Ergebnisse stimmten mit alternativen Aufzeichnungen des Klimas und der Sonnenaktivität überein, die zeigen dass während des gesamten Holozäns der letzten 10 000 Jahre eine 1000-jährige Oszillation auftrat. Somit würde die Existenz einer Millenum -Oszillation die Zuverlässigkeit der Klimamodelle, die die AGW Theorie unterstützen in Frage stellen, weil sie nahelegen, dass etwa 50% der seit 1850 beobachteten Erwärmung natürlichen Ursprungs  sein könnte. […]

Seit 1850 hat man mehrere 30-Jahr Trendwenden beobachtet, eine Erwärmung von 1850 bis 1880, eine Abkühlung von 1880 bis 1910, wieder eine Erwärmung von 1910 bis 1940, eine Abkühlung von 1940 bis 1970 dann stieg zwischen 1970 und 2000 die Temperatur erneut an. Schliesslich war die Temperatur seit 1998 für etwa 20 Jahre verhältnismässig stabil…[…]“

(27) Zusammenfassung

„ Die Zeitspanne von 2000 bis  2016 zeigt einen bescheiden Temperaturanstieg, den die Vertreter der AGW als die „Pause“ oder „Hiatus“ bezeichnet haben.

[…]Jedoch erzeugte die Temperaturspitze im Zeitraum 2015-2016 , das „heisseste Jahr seit Beginn der Temperaturaufzeichnung“,  den Eindruck, dass ab 2014  die Temperaturpause beendet wäre .[…]

Beobachtete globale Temperatur (links) und Temperaturverlauf ohne ENSO-Effekt (rechts)

https://www.researchgate.net/figure/left-Original-temperature-records-blue-against-the-CMIP5-mean-simulations-from-138_fig3_320038265

Die Autoren zeigen, dass diese Temperaturspitze in keinem Zusammenhang mit dem menschenverursachten Antrieb (Autor:CO2) steht, sie ist eine Folge der natürlichen kurzfristigen Klimafluktuationen der El-Nino-Southern Oscillation (ENSO). […] Damit sind die GCM-Rechenmodelle die üblicherweise benutzt werden die AGW-Theorie zu unterstützen, höchstwahrscheinlich fehlerhaft. Dagegen stimmen  die semi-empirischen Klimamodelle […],die auf einer speziellen Auswahl von natürlichen Klimaoszillationen , die  wahrscheinlich astronomischen Ursprungs sind, beruhen, kombiniert mit einem deutlich reduzierten menschengemachten Beitrag, weitaus besser mit den jüngsten Beobachtungen überein.“

(27): 4. Vorhersagen des semiempirischen Modells

„Seit 2010 hat Scafetta vorgeschlagen, dass die Dynamik der Klimaaufzeichnungen nahelegt, dass das System nach spezifischen Oberschwingungen oszilliert, die in den Gravitations-und elektromagnetischen Schwingungen der Sonne und des Sonnensystems gefunden werden können.

Auf der dekadischen bis tausendjährigen Zeitskala haben diese Oszillationen Perioden von 9.1 Jahren, die wahrscheinlich ein Sonne-Mond-Gezeiten Zyklus ist, von 10-11 Jahren ,  der 11-jährige Sonnenzyklus , der im 20. Jahrhundert im Mittel 10.5 Jahre betrug, von Quasi-20 Jahren- und Quasi-60 Jahren- Zyklen (Autor: „Quasi“ soll heissen, dass diese Schwingungen regelmässig auftreten, aber keine konstante Periode haben), die in Beziehung mit wichtigen Oszillationen des Sonnensystems durch die Jupiter-Saturn Umlaufbewegungen (Autor: um die Sonne) stehen, von Quasi 115-Jahren und Quasi 980-Jahren  Oszillationen, die in Beziehung zu Schwebungen zwischen Planeten -und Sonnen- Oszillationen stehen. […]“

Eine Erläuterung der Sonnenoszillationen und ihres Ursprungs finden Sie unter den folgenden URL‘s:

Our Sun’s Mysterious 11-Year Cycle Appears to Be Driven by Alignment of The Planets
https://www.sciencealert.com/the-sun-s-11-year-cycle-have-may-have-something-to-do-with-the-gravity-of-the-planets

A Model of a Tidally Synchronized Solar Dynamo
https://arxiv.org/pdf/1803.08692.pdf

The complex planetary synchronization structure of the solar system
https://arxiv.org/pdf/1405.0193.pdf

2.8 Ein „Klimaschützer“ tritt zum „Klimarealismus“ über

Michael Shellenberger ist ein amerikanischer Autor und Klimaschützer, Mitbegründer des „Breakthrough Instituts“ (Umweltforschungsinstitut, Kalifornien)) und Gründer von „Environmental Progress“ (Forschungs- und Politikorganisation für saubere und gerechte Energie). Er wurde vom Time Magazin zum „Umwelthelden 2008“ gekürt und erhielt 2008 den  „Green  Book Award“ (Wikipedia).

Nun ist er im Juni 2020 mit einer bemerkenswerten Veröffentlichung im Forbes Magazin hervorgetreten (Forbes hat die Veröffentlichung des Artikels später zurückgezogen aufgrund der Unvereinbarkeit des Inhalts mit den Richtlinien von Forbes) (21g). Er schreibt (Übersetzung aus dem Englischen durch den Autor):

„Im Namen der Umweltschützer in aller Welt möchte ich mich formell für die Klimaangst entschuldigen, die wir in den letzten 30 Jahren geschaffen haben.

[…] Mit 16 wurde ich ein Umweltschützer, als ich eine Spendenaktion für das Rainforest Action Network organisierte. Mit 27 half ich die letzten ungeschützten Mammutbäume in Kalifornien zu retten. Mit 30 setzte ich mich für erneuerbare Energien ein und half erfolgreich mit, die Obama Administration zu überzeugen, dafür 90 Milliarden Dollar zu investieren.

[…] Aber bis zum letzten Jahr vermied ich es meistens gegen die Klimaangst zu argumentieren. […] Ich schwieg über die Klima- Desinformations-Kampagne, weil ich fürchtete Freunde und finanzielle Unterstützung zu verlieren. Die wenigen Male, als ich den Mut aufbrachte die Klimawissenschaft gegen die zu verteidigen, die sie falsch darstellten, habe ich drastische Konsequenzen erfahren müssen. So stand ich meistens abseits und tat fast nichts als meine Umweltschützer -Kollegen die Öffentlichkeit in Schrecken versetzten.

Aber dann letztes Jahr gerieten die Dinge außer Kontrolle.

Alexandria Ocasio-Cortez sagte: “ Die Welt wird in 12 Jahren untergehen, wenn wir uns nicht um den Klimawandel kümmern. Großbritanniens hochrangigste Umweltschutzorganisation (Autor: Extinction Rebellion) behauptetet „Der Klimawandel tötet Kinder“.

Der einflussreichste „grüne Journalist“ der Welt, Bill McKibben, bezeichnete den Klimawandel als die „größte Herausforderung, der sich die Menschheit jemals gegenübersah“ und dass sie „ganze Zivilisationen auslöschen“ würde.

So habe ich mich entschlossen den Mund aufzumachen. […]

  […] In den 3 abschliessenden Kapiteln von „Apokalypse Nie“ lege ich die finanziellen, politischen und ideologische Motive offen. Umweltschutzorganisationen haben Hunderte von Millionen von Dollars von der fossilen Brennstoffwirtschaft angenommen.  Organisationen mit antihumanistischen Überzeugungen drängten die Weltbank aufzuhören die Armut zu bekämpfen and stattdessen Armut „nachhaltig“ zu gestalten.

[…]Wenn man einmal wahrnimmt, wie schlimm wir fehlinformiert wurden, oft von Leuten mit ungesunden und widerlichen Beweggründen, fällt es schwer sich nicht betrogen zu fühlen.

[…] ich hoffe Sie stimmen zu, dass es nach allem vielleicht nicht so seltsam ist, wie es scheinen könnte, dass ein langjähriger Klimaschützer, Progressiver und Klimaaktivist sich gezwungen fühlte sich gegen den Alarmismus auszusprechen.

Ich hoffe darüber hinaus, dass Sie meine Entschuldigung akzeptieren.“

Das Global Warming Policy Forum (GWPF) kommentiert

„Die Entscheidung von Forbes die „Klimaentschuldigung“ von Michael Shellenberger zu löschen war nicht das erste Mal, dass sie eine kritische Stimme in der Klimadebatte zensierten. Letztes Jahr taten Sie das Gleiche: Ein Interview mit Professor Nir Shaviv, einer der wissenschaftlichen Berater von GWPF wurde von Forbes entfernt.“

> weiter zu 3.0 Welche Einflussgrössen bestimmen das Klima der Erde ?