2. Der Klimawandel und Folgen für die Energiewende

2.1 IPCC –Prognosen

Mitte des 20. Jahrhunderts stellten Forscherinnen und Forscher vermehrt Anzeichen dafür fest, dass sich die Atmosphäre erwärmt und dass Aktivitäten des Menschen eine Ursache dafür sein könnten. Das Umweltprogramm der Vereinten Nationen (UNEP) und die Weltorganisation für Meteorologie (WMO) gründeten daraufhin 1988 den IPCC. Ziel war es zu klären, welche Gefährdung von der Erderwärmung ausgeht und ob gehandelt werden muss. (5)

So beschreibt die deutsche Koordinierungsstelle des IPCC (Intergovernmental Panel of Climate Change) seine Entstehung und Aufgaben

Dazu veröffentlicht er seit 1990 alle sechs bis sieben Jahre Sachstandsberichte, die IPCC Assessment Reports.

Die zentralen Aussagen der fünf Sachstandsberichte 1990, 1995, 2001, 2007 und 2013/14. sind in (6) wiedergegeben.

Das Umweltbundesamt, basierend auf dem Bericht 2007 fasst die zu erwartenden Klimaänderungen und die empfohlenen Maßnahmen zusammen (7) und schreibt wie folgt: 

„Zur Untersuchung denkbarer Entwicklungen des Klimas in der Zukunft werden Klimamodelle genutzt. Damit führen die Fachleute Simulationen auf der Basis unterschiedlicher Emissionsszenarien durch. Die Ergebnisse derartiger Simulationen […] ermöglichen Aussagen über eine Bandbreite möglicher künftiger Klimaänderungen.

Globale Klimaänderungen bis 2100

Der anthropogene Treibhauseffekt verursacht Veränderungen im Klimasystem. Deren Ausmaße und Auswirkungen für die Zukunft können nur durch Modellrechnungen nachgebildet werden, da vielfältige und komplexe Wechselwirkungen berücksichtigt werden müssen. Aus Szenarienrechnungen lassen sich folgende mögliche zu erwartende Klimaänderungen für das 21.  Jahrhundert ableiten (IPCC, 2007).

Bis zum Jahr 2100 wird von einem mittleren globalen Temperaturanstieg zwischen 1,8 (mit einer Schwankungsbreite von 1,1-2,9) und 4,0 (mit einer Schwankungsbreite von 2,4-6,4) Grad Celsius ausgegangen. […]

Werden die Treibhausgasemissionen nicht verringert, ist eine Erwärmung um 0,2 Grad Celsius pro Dekade für die nächsten 30 Jahre sehr wahrscheinlich. […]

Im Vergleich zum Zeitraum von 1980 bis 1999 wird bis zum Ende des 21.  Jahrhunderts von einem Anstieg des Meeresspiegels für ein niedrigeres Szenario zwischen 18 und 59 Zentimetern und für ein höheres Szenario zwischen 26 und 59 Zentimetern ausgegangen (IPCC, 2007). […] Insgesamt sind die Aussagen über die zu erwartende Entwicklung des Meeresspiegels noch immer sehr unsicher.

Ganze Kontinente und Meeresbecken weisen deutliche Klimaänderungen auf. Modelle zeigen, dass sich diese Trends auch im 21.  Jahrhundert fortsetzen.

  • Arktis: Die durchschnittlichen Temperaturen stiegen in den vergangenen 100 Jahren doppelt so schnell wie im globalen Durchschnitt.
  • Meereis: Satellitendaten zeigen seit 1978, dass die durchschnittliche jährliche Ausdehnung um 2,7 Prozent pro Jahrzehnt geschrumpft ist, im Sommer sogar um 7,4 Prozent.
  • Niederschläge: Von 1900 bis 2005 wurden in vielen Regionen langfristige Veränderungen beobachtet. Zunahme der Niederschläge  wie auch Austrocknung und Dürren.
  • Meteorologische Extremereignisse: Die Häufigkeit von Starkniederschlägen hat zugenommen. Kalte Tage und Nächte sowie Frost sind seltener und heiße Tage und Nächte sowie Hitzewellen sind häufiger geworden.  […]

Um eine gefährliche anthropogene Störung des Klimasystems zu verhindern, ist es erforderlich, die globale Temperaturerhöhung langfristig auf maximal zwei Grad Celsius über dem vorindustriellen Niveau zu begrenzen (8), wie beispielsweise der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) in seinem Sondergutachten zeigt (WBGU, 2003). Wissenschaftliche Ergebnisse ( IPCC, 2004 ) weisen darauf hin, dass dieses Temperaturlimit mit hinlänglich großer Sicherheit nur unterschritten werden könnte, falls es gelänge, die Treibhausgaskonzentration bei 400 ppm CO2-Äquivalenten zu stabilisieren. Um eine derartige Stabilisierung zu erreichen, ist es erforderlich, dass die globalen Emissionen noch höchstens etwa bis zum Zeitraum 2015 bis 2020 steigen dürfen, um dann bis 2050 auf unter die Hälfte des Niveaus von 1990 zu sinken […]

Damit diese Lasten fair verteilt werden, ist es notwendig, dass die Industrieländer ihre Treibhausgasemissionen um 80 Prozent bis 2050 gegenüber 1990 mindern.“

2.2 Die 2-Grad-Grenze

Im deutschen Wikipedia steht zum 2°C –Klimaziel

https://de.wikipedia.org/wiki/Zwei-Grad-Ziel

„Das Zwei-Grad-Ziel beschreibt das Ziel der internationalen Klimapolitik, die globale Erwärmung auf weniger als zwei Grad Celsius bis zum Jahr 2100 gegenüber dem Niveau vor Beginn der Industrialisierung zu begrenzen.

Das Ziel ist eine politische Festsetzung, die auf Grundlage wissenschaftlicher Erkenntnisse über die wahrscheinlichen Folgen der globalen Erwärmung erfolgte . […]

(Für den Beginn der Industrialisierung wird häufig das Jahr 1850 gesetzt, Genaueres unter (8).)

Der Wissenschaftlichen Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) trug wesentlich dazu bei, dass die Zwei-Grad-Grenze in den politischen Prozess gelangte.“

In (9) wird die Plausibilitätsbetrachtung beschrieben, die die Festlegung des Klimaziels durch den WBGU erklärt . Dort steht u.a. :

“So haben während mehrerer Jahrzehnte Intuitionen, Einwände und Einsichten dazu geführt, dass 2°C ein fokaler Punkt in der Klimadebatte geworden ist.“

Im Pariser Klimaschutzabkommen vom Dezember  2015 ist vereinbart den Anstieg der weltweiten Durchschnittstemperatur auf deutlich unter 2 °C gegenüber vorindustriellen Werten zu begrenzen, mit dem konkreten Ziel den Grenzwert 1,5 °C einzuhalten.

Der gegenüber 2° C niedere Grenzwert von 1.5° C wurde auf Initiative der kleinen Pazifik- Inselstaaten und einiger afrikanischer Länder in einem UNFCCC –Bericht im Mai  2015 vorgeschlagen. (https://unfccc.int/resource/docs/2015/sb/eng/inf01.pdf)

Auf die oben aufgeführten Prognosen des IPCC sowie auf Organisation und Arbeitsweise des Weltklimarats wird später noch näher eingegangen.

2.3 Die Energiewende: Kosten, Windkraftanlagen und Umwelt, Effizienz und Reglementierungen, Nutzen

2.3.1. Der totale Energiebedarf, erreichte Klimaziele 2018 und Akzeptanz durch die Bevölkerung

Im Jahre 2018 lag in Deutschland der Anteil der erneuerbaren Energien an der Stromerzeugung bei fast 38 Prozent und damit im Plan. Das Ziel, 2030 etwa 50 % zu erreichen erscheint überschaubar, aber zur Erreichung des Ziels von 80%  in 2050 fehlen dann immer noch 30%. Bereits heute jedoch sorgen die bundesweit nahezu 30 000 Rotortürme für eine Belastung der Natur und der Bewohner, die sich in zunehmend schärferem Widerstand der Bevölkerung gegen neue Projekte niederschlägt (10).

Darüber hinaus  stellt die Stromenergie nur etwa 1/5 des deutschen Energiebedarfs dar (Umweltbundesamt). Um vor allem auch den Energiebedarf für die Wärmeerzeugung und den Verkehr zu decken hat Deutschland demnach nach Erreichen der Ziele der Stromökologisierung immer noch 4/5 des Weges zur Dekarbonisierung vor sich (10). Dies  macht einen Faktor von mehr als 10 um den die umweltfreundliche Energieerzeugung gegenüber heute (2018) erhöht werden muss.

Was den CO2 Ausstoß anlangt, stellt Umweltministerin Schulze 2018 fest, dass das für 2020 anvisierte Ziel von 40% Reduktion gegenüber 1990 mit voraussichtlich nur 32% nicht erreicht werden wird, begründet durch eine „unerwartet schnell wachsende Bevölkerung und Wirtschaft“ (11).

Die Union der deutschen Akademien schreibt in ihrer Stellungnahme „Sektorkopplung“ Optionen für die nächste Phase der Energiewende (2017) (12) :

„Ein kontinuierlicher, deutlicher Ausbau erneuerbarer Energien zur Stromerzeugung führt nicht dazu, dass auf eine Bereitstellung einer Reserveleistung in ähnlicher Höhe wie die Leistung des heutigen konventionellen Kraftwerksparks verzichtet werden kann, da die Stromerzeugung aus erneuerbaren Energien selbst bei Installation erheblicher Mengen an Kurzzeitspeichern nur eine sehr geringe gesicherte Erzeugungsleistung aufweist.“

Die Energiewende wird schwerpunktmäßig im nationalen Kontext betrachtet. Das heißt, nur das deutsche Energiesystem wird im Detail analysiert und auf der Zeitschiene optimiert. Es gibt jedoch  theoretisch eine Option, mit der man eine umfassende europäische Energiewende im Stromsektor realisieren könnte, das europäische Supergrid. Es besteht aus sehr leistungsfähigen Übertragungsnetzen, die einen Austausch großer elektrischer Energiemengen mit Hilfe der Hochspannungs-Gleichstromübertragung (HGÜ-Technik) ermöglichen (13). Die Genehmigungsverfahren zum Bau dieser Stromautobahnen sowie die Einigung mit den Stromerzeugern aus Kohle-, Gas,-und Atomkraftwerken der europäischen Partnerländer werden jedoch mühsam und langwierig sein, d.h. die Abschaltung unrentabler Kraftwerke mit Energien durch Verbrennung fossiler Materialien (Kohle, Gas) wird möglicherweise nicht in dem zur Zeit geplanten Maße weitergehen (4) und  auch bei den Protagonisten der erneuerbaren Energien setzt sich die Überzeugung durch, dass noch längere Zeit konventionelle Kraftwerke, vorzugsweise  Gaskraftwerke beibehalten werden müssen.

2.3.2 Sektorkopplung und Gesamtkosten

In (12) veröffentlichen die Deutsche Akademie der Technikwissenschaften , die Deutsche Akademie der Naturforscher Leopoldina  sowie die Union der deutschen Akademien der Wissenschaften , eine Studie   unter dem  Titel „Sektorkopplung: Untersuchungen und Überlegungen zur Entwicklung eines integrierten Energiesystems“. Die Studie berechnet die Kosten für verschiedene Szenarien einer weitgehenden Dekarbonisierung bis 2050 bei einer heutigen CO2 Emission in Deutschland von rund 900 Mio t .

Diese vom Bundesministerium für Bildung und Forschung  finanzierte Studie  betrachtet die Kosten der Ökologisierung ganzheitlich für alle Sektoren des Energiesystems, nämlich Strom, Verkehr und Wärme. Sie kommt zum Ergebnis, dass zukünftig nur eine  alle Sektoren übergreifende Herangehensweise eine Perspektive dafür bietet, die Energieversorgung insgesamt schrittweise auf überwiegend erneuerbare Energien umzustellen.

Rechnungen mit Hilfe eines Optimierungsmodells beschreiben technisch mögliche Entwicklungspfade für unterschiedliche Szenarien des Energiesystems. Die Optimierung zielt auf  eine Minimierung der Kosten unter Berücksichtigung spezieller Randbedingungen ab.    

Szenarien des Energiesystems

Die untersuchten Szenarien unterscheiden sich einmal durch die auf der Horizontalen der untenstehenden Abb. angegebenen CO2- Reduktionen von 60%, 75%, 85% und 90%. Bei der freien Optimierung („offen“) wird die Technologiezusammensetzung  von  „Wind Offshore“, „Wind Onshore“, „Photovoltaik“ und flexiblen Kraftwerken  durch die Kostenminimierung bestimmt.

Bei einigen  -85% Szenarien sind  zusätzliche Randbedingungen festgelegt, zum einen ein Energiesystem bei der Wasserstoff H2 eine besonders große Rolle spielt , zum anderen eine Entwicklung mit starkem Einsatz von  regenerativ erzeugten Kraftstoffen für Verkehr und Wärme (Methan, flüssige Kraftstoffe) . Als flexible Kraftwerke kommen grundsätzlich sämtliche Techniken, die lagerbare chemische Energieträger verwenden in Betracht, von Blockheizkraftwerken in Gebäuden oder Wärmenetzen über Gasturbinen und Brennstoffzellen bis hin zu großen Gas- und Dampfkombikraftwerken. Als Brennstoff kommen fossile Energieträger, Biomasse oder synthetische Gase (Wasserstoff oder Methan), die aus Strom hergestellt und in Speichern gelagert werden, infrage

Bild1:   Installierte Leistung an umweltfreundlichen Energien im Stromsektor 2050

.

Erwartungsgemäß steigt die installierte Leistung für erneuerbare Energien mit dem CO2 Reduktionsziel an. Während  heute die installierte Leistung im Stromsektor bei weniger als 100 GW liegt (2018, Statista), erreicht sie 2050  bei den -85% -Szenarien Werte bis 500 GW.

Dabei ist der Anteil der  Windkraft bei etwa 250 GW, was etwa das 4-fache der heutigen Leistung ist (2018 etwa 60 GW)). Bemerkenswert der Anstieg der Photovoltaik-Energie  von heute (2018) 45 GW auf 250 GW , also mehr als das 5-fache.(Effizienzszenario s.u. unter Windkraftanlagen)

Reservekapazität: Die wegen des fluktuierenden Charakters von WK und PV benötigte Reservekapazität beträgt zwischen 60 und 100 Gigawatt. Heute sind etwa 100 Gigawatt an konventionellen Kraftwerken installiert. Das bedeutet, dass die benötigte Reservekapazität nicht abnimmt. Erdgas dürfte auch langfristig als flexibler, emissionsarmer Energieträger eine Rolle spielen

Speicher:  Neben Erneuerbare-Energie-Anlagen und Reservekraftwerken sind zunehmend Speicherkapazitäten erforderlich. Als Kurzzeitspeicher für Strom (für Stunden bis Tage) können vor allem Pumpspeicherkraftwerke und Batterien eingesetzt werden. Für die Langzeitspeicherung sollten mit Strom gut speicherbare Brenn- und Kraftstoffe wie Wasserstoff oder Methan erzeugt werden.

Gesamtkosten der Dekarbonisierung

 

Bild 2: Kumulative systemische Gesamtkosten bis zum Jahr 2050
für die verglichenen Systementwicklungen und ihre Zusammensetzung

 

Anhand der obigen Abbildung  wird deutlich, dass sich die Kosten für die Entwicklung des  Energiesystems als Ganzes mit steigenden Reduktionszielen, bei sonst gleichen Randbedingungen, stark erhöhen. Eine Steigerung der Reduktion von -80 % auf -90% entspricht etwa einem Mehrkostenbetrag von etwa 1000 Milliarden €.

Die Kosten für das Referenzszenario belaufen sich auf etwa 4000 Milliarden €. Beim Referenzszenario werden bis 2030 die energiebedingten CO2-Emissionen um 40% verringert und bleiben in der Folgezeit konstant.

Die Emissionsminderung auf 85% kostet über 6000 Milliarden bei freier Kostenoptimierung und etwa 4500 Milliarden für das Einsparungs-und Effizienzsteigerungsszenario.

Nach dem Szenario der freien Kostenminimierung  fallen zum Erreichen des Klimaschutzziels von  -85 Prozent bis zum Jahr 2050 insgesamt Mehrkosten (in Bezug auf die Referenz) in Höhe von rund 2 Billionen Euro an, Dieser Wert entspricht im Mittel der nächsten 33 Jahre einem jährlichen Betrag von etwa 60 Milliarden Euro und somit knapp 2 Prozent des deutschen Bruttoinlandsprodukts von 2016.

Eine Studie des  Frauenhofer -Instituts für solare Energiesysteme (ESYS) (14) ergibt als kumulative Kosten 2015-2050 für verschiedene -80% CO2-Szenarien Kosten zwischen 5300 und 5800 Milliarden € und 4200 Milliarden € für das Referenzszenario (Fortschreibung der heutigen Systemzusammensetzung). Für ein -90% Szenario fallen Gesamtkosten von etwa 6500 Milliarden € an.

Kosten der Stromökologisierung

Das Institut für Wettbewerbsökonomie an der Uni Düsseldorf (DICE Consult) hat  in einem Gutachten die Kosten der Energiewende nur für den Strombereich berechnet (15).

  • Das Ergebnis: Im Zeitraum zwischen den Jahren 2000 bis 2025  müssen geschätzt rund 520 Milliarden Euro aufgewendet werden.
  • Eine vierköpfige Familie zahlt somit bis 2025 direkt und indirekt über 25.000 Euro für die Energiewende.

Soweit die voraussichtlichen  Kosten zur  Stromökologierung.

2.3.3 Zubau an Erneuerbaren Energien: Windkraftanlagen und Photovoltaik

Bild 3: Windenergienutzung in Deutschland 2010-2016

In einer Studie über die Windkraft in Deutschland schreibt die die VGB Powertech (16)

……“In der Abb sind relevante Kennzahlen für die Entwicklung der Windenergie in Deutschland im Zeitraum von 2010 bis 2016 dargestellt. Demnach hat sich die kumulierte installierte Nennleistung des deutschen Windparks von 26.903 MW am Jahresende 2010 bis zum Jahresende 2016 fast verdoppelt. Die Anzahl der Windenergieanlagen, jeweils zum Jahresende und gerundet, erhöhte sich zeitgleich von 21.600 auf 28.200 Aggregate.

Die durchschnittliche Nennleistung jeder neu zugebauten Onshore-Windenergieanlage lag im Jahr 2010 bei 2,0 MW. Bis zum Jahr 2016 erhöhte sich dieser Durchschnittswert auf 2,8 MW (Offshore-Windenergie: 5,2 MW pro Anlage)“…………

………“Der arithmetische Mittelwert ist ein Maß für die jährlich bereitgestellte Energie und spiegelt die konstante Leistung wider, die ein Kraftwerk für diese Energie bei konstanter Fahrweise über ein Jahr erbringen müsste“…..

……..“Das resultierende Verhältnis aus mittlerer Leistung zu potenzieller Leistung (Nennleistung) wird auch als Ausnutzung  bezeichnet. Die Ausnutzung ist dimensionslos und als Maß für die Anzahl der Jahresstunden zu verstehen, in denen der Windpark umgerechnet seine Nennleistung erbrachte. Multipliziert mit der Anzahl der Jahresstunden ergeben sich die Volllaststunden  des Windparks im betreffenden Jahr“…….

………“Von 2010 bis 2016 erreichte die Ausnutzung einen Durchschnittswert von rund 18%“…….

……. „Hinsichtlich des Beitrags der Windenergie zur Versorgungssicherheit gibt insbesondere die Entwicklung der jährlichen Minima der Leistungszeitreihen gemäß Bild  Aufschluss: Diese Werte liegen seit 2010 erstaunlicherweise auf unverändert niedrigem Niveau von durchschnittlich 100 MW, obwohl sich die Nennleistung des deutschen Windparks zeitgleich fast verdoppelt hat“…….

……“Offenbar hat sich die intuitive Erwartung, dass der Minimalwert bei einem Ausbau deutschlandweit verteilter Windenergieanlagenstandorte nach dem Motto „irgendwo weht immer Wind“ ansteigt und der Ausbau der Windenergienutzung in zunehmendem Maße eine Substitution konventioneller Kraftwerksleistung ermöglicht, nicht erfüllt“…….

……….“Die permanent verfügbare (gesicherte) Leistung des deutschen Windparks lag damit immer deutlich unter einem Prozent seiner Nennleistung oder anders ausgedrückt: Im jedem Jahr gab es immer mindestens eine Viertelstunde, in der mehr als 99 % der Nennleistung des deutschen Windparks nicht verfügbar waren und praktisch ein Bedarf an 100% planbarer Backup-Leistung herrschte…“…..

……..“Aus Sicht der Versorgungssicherheit hat die Windenergie in Deutschland damit bisher  (bis 2016) konventionelle Kraftwerksleistung von maximal 150 MW ersetzt. Zum Vergleich: Für die Stabilität des Stromnetzes wird hierzulande zum Zeitpunkt der Jahreshöchstlast, die meist spätnachmittags an einem Tag im Zeitraum von November bis Februar auftreten kann und vorab unbekannt ist, eine Kraftwerkskapazität von etwa 77.000 bis 82.000 MW benötigt.“

ESYS (12) stellt fest, dass  ein starker Zubau an Anlagen zur Stromerzeugung aus Sonne und Wind  unabdingbar ist. Sowohl gesellschaftliche Akzeptanzgründe als auch Aspekte der Flächennutzung und des Naturschutzes legen jedoch Systementwicklungen nahe, die diesen Ausbau so gering wie möglich halten

Um also die zu installierende Leistung zu begrenzen wurde in der ESYS Studie in einem weiteren Szenario (85_offen+Aktiv) für 2050 eine durch Einspar-und Effizienzmassnahmen erzielte  Stromnachfrage von -25% gegenüber heute angenommen. Damit reduziert sich der Beitrag von  Windkraft und Photovoltaik, etwa im Verhältnis 50/50, auf 350 GW.

Nach der Studie des Frauenhoferinstituts  (14) beläuft sich die in 2050 installierte Leistung  für die Windkraft auf Werte zwischen 190 und 220 GW (für die verschiedenen Szenarien)  und 170 und 200 GW für die Photovoltaik.

Gegenüber der heutigen Situation entspricht dies einer Vergrößerung der installierten Windkraft um das Dreifache und um das 4fache für die Photovoltaik..

Dr. – Ing. Detlef Ahlborn (17) schätzt eine benötigte Installation von etwa 60 000 Windkraftanlagen ab, also gegenüber heute eine Verdopplung der bereits installierten Anlagen.

Bild 4: Wiesenvogelbrutgebiet Weenermoor, LK Leer. Quelle: https://www.wattenrat.de/

Die Windbranche versucht durch Windräder mit höherer Nennleistung die Zahl der benötigten Neuinstallationen zu reduzieren (18). Die neuesten Entwicklungen „Windkraft 4,0“ haben eine Rotordurchmesser von 170 m  bei einer Nennleistung von 5,6  Megawatt. (Entwickler Vensys, Mutterkontern Goldwind , China)

Im deutschen  Baugesetzbuch der  wird ein Mindestabstand  von 1000 m zur Wohnbebauung festgeschrieben, es ist aber den Bundesländern überlassen diesen Abstand zu verringern. Um den Widerstand der Anwohner zu verringern sollen Anwohner und Kommunen mit „Windbürgergeld“ und finanzielle Windkraftbeteiligungen entschädigt werden (18a) .

Manfred Knake , Vertreter von  „Wattenrat“, einem lockeren Zusammenschluss von Naturschützern aus der Küstenregion Ostfrieslands, bezeichnet das Windbürgergeld als fragwürdiges Schweigegeld. Es geht den Projektierern der Windbranche nicht um das Klima sondern nur um das Abgreifen von mehr EEG-Subventionsgeld, das bereits heute mehr als 30 Milliarden Euro jährlich betrage (18a) (siehe auch Abschnitt 6.2).

Für längere Phasen mit nicht ausreichendem Strom aus PV und Wind – also Situationen, in denen auch alle Kurzzeitspeicher erschöpft sind („Dunkelflauten“) – ist eine große Back-up-Kapazität für die Stromerzeugung bereitzustellen.  Flexible thermische KWK-Anlagen  und Gaskraftwerke sind eine wichtige Säule der Versorgungssicherheit. Dabei nimmt diese  benötigte Reservekapazität nicht ab.

Artenschutz, Flächenverbrauch, Mikroklima , Entsorgung

Klimaauswirkung.

Forscher der Harvard Universität stellen in einer Studie (18b) fest, dass  Windkraftanlagen durch die Veränderung der Durchmischung der Luftschichten in der Vertikalen die Umgebungstemperatur erhöhen.  Während eines Zeitraums von einigen Jahrzehnten  würde die durch die Politik der Umstellung auf Windenergie   verursachte Temperaturerhöhung  größer sein der Nutzeffekt der dabei erzielten CO2 Einsparung.

Zerstörung von Waldflächen

Nach Schätzungen des Bundesamtes für Naturschutz benötigt man für jeden einzelnen Mast eines Windparks  eine Freifläche von 0,2 bis 1 Hektar, die entweder gerodet werden muss oder als Lichtung verloren geht. Dazu kommt die ergänzende Infrastruktur wie Stromtrassen oder Zufahrtswegen. Vorher weitgehend geschlossene Wälder werden dadurch zerstückelt, aus dem Ökosystem wird eine Art grünes Industriegebiet (18c)

Quelle: http://windwahn.net/ein-windrad-steht-im-walde/

 Artenschutz

Die etwa 30 000 Windräder in Deutschland, die heute in Deutschland installiert sind,  töten nach (18d) pro Jahr

250 000 Fledermäuse,  12 000 seltene Greifvögel und 1 200 t Insekten .

Eine  Studie  über die gesamten USA  (Auswertung 45 000 Turbinen) ergibt eine jährliche Kollisionsrate pro Windrad zwischen etwa 3  (Great Plains) und ca 8 (Kalifornien) Zusammenstößen (18e) . Überträgt man in grober Näherung einen Mittelwert von  ca 5 Kollisionen pro Windrad auf  die 30 00 Windräder, die sich aktuell in Deutschland drehen , so erhält man ca 150 000 getötete Vögel pro Jahr.

Die weltweit  bisher (2016) größte Studie zu Kollisionsrisiken von Vögeln mit Windrädern mit Schwerpunkt Schleswig-Holstein (Auftraggeber Bundeswirtschaftsministerium) stellt  allein  für das nördlichste  Bundesland mit etwa 3000 Windrädern jährlich 1600 tote Mäusebussarde durch Windkraftanlagen fest (18f)

Leben bedrohte Arten wie der Schwarzstorch oder verschiedene Greifvogelarten (roter Milan, Mäusebussard), im Umfeld eines geplanten Projekts, so müssen die Erzeuger entsprechende Abstände einhalten, oder ihre Pläne werden nicht genehmigt. Nach (18c) kommt es zu  illegalen Zerstörungen  von Großvogelhorsten in der Nähe von bestehenden und geplanten Windkraftanlagen.

Abbau und Recycling

Die FAZ berichtet (18g), dass das Umweltbundesamt (UBA) ab 2021 mit einem verstärkten Abriss der etwa  30 000 Anlagen rechnet. Die im Rahmen einer UBA Studie errechneten Abfallmengen sind extrem gross: 5,5 Millionen Tonnen Beton pro Jahr, vor allem wegen der Fundamente, müssen ausgegraben und beseitigt werden. Zudem fielen knapp eine Million Tonnen Stahl pro Jahr an , was grundsätzlich gut zu verarbeiten sein müsste. Anders sieht es aus bei den mit Kohlefasern verstärkten Rotorblättern. Die Recyclingbranche hatte hier mit dem Hinweis auf Sondermüll schon vor Jahren Alarm geschlagen. Laut Prognose für das UBA werden hier ab 2024 „relevante Mengen“ von bis zu 70.000 Tonnen pro Jahr anfallen. Sie seien nicht nur schwer zu verwerten, in ganz Deutschland gebe es auch nur eine einzige Verwertungsanlage für solche Abfälle.

Abrissfinanzierung

Die FAZ berichtet weiter, dass nach der Studie  für den Rückbau der  Windenergieanlagen eine große Finanzierungslücke zu erwarten ist. Die Betreiber könnten – obwohl seit 20 Jahren von den Stromkunden mit mehr als 100 Milliarden Euro subventioniert – nicht genügend Rückstellungen für den Rückbau gebildet haben.

Die fluktuierende Erzeugung erneuerbarer Energien kennt natürlich nicht nur Perioden mit nicht ausreichender Versorgung ,sondern auch Tage, in denen mehr Strom als in Deutschland benötigt produziert wird. In dieser Situation zahlt Deutschland an die ausländischen Abnehmer sog. Entsorgungsgebühren: Diese Entsorgungsgebühren zahlt der deutsche Steuerzahler, während sich der ausländische Verbraucher am kostengünstigen Überschussstrom erfreuen kann (19).

2.3.4 Energieeffizienz und Verbraucherverhalten

In nahezu allen Sektoren existieren immer noch bedeutende Effizienzpotentiale. Im Gebäudesektor besteht neben dem baulichen Wärmeschutz zur Reduzierung des Raumwärmebedarfs ein erhebliches Potential zum Austausch alter Heizkessel, die eine wesentlich geringere Energieeffizienz aufweisen als moderne Heizgeräte. Im Verkehrssektor können nicht-technische, verhaltensbasierte Maßnahmen (z.B. geringere Autonutzung zugunsten öffentlicher Verkehrsmittel) einen bedeutenden Beitrag zur Energieeffizienz leisten.

Bei reiner Stromerzeugung sind die Wirkungsgrade konventioneller Kraftwerke aktuell auf bestenfalls 65 Prozent (modernes Gaskraftwerk) beschränkt, das heißt, 65 Prozent der Energie des eingesetzten Energieträgers wird in elektrischen Strom umgewandelt. Moderne KWK-Anlagen wandeln bis zu 95 Prozent der eingesetzten Energie in Strom und nutzbare Wärme um.
Neben der Verbesserung der technischen Effizienz von Anlagen und Anwendungen können weitere Maßnahmen, insbesondere aus dem Bereich der Anpassung des Verbraucherverhaltens, zu einer höheren Energieeffizienz beitragen. Im Verkehrssektor können nicht-technische, verhaltensbasierte Maßnahmen einen bedeutenden Beitrag zur Energieeffizienz leisten, und auch technische Maßnahmen bei bestehenden Antriebskonzepten sind noch nicht ausgereizt.

2.3.5 Regulierungen

Die deutsche Bundesregierung sowie die EU Kommission verlangen seit Kurzem die Klimaneutralität bis spätestens 2050. Der Begriff Klimaneutralität ist nicht klar definiert, noch die Methode ihrer Berechnung . Manchmal wird darunter CO2-Emission Null verstanden. Aus den der obenstehenden Grafik „Gesamtkosten der Dekarbonisierung“ zugrunde liegenden, mit der Emissionsminderung exponentiell steigenden Werten ergibt eine lineare Extrapolation (Näherung !) Gesamtkosten für die Nullemission in Deutschland von etwa 10 Billionen €. Das entspricht dem 3-fachen Bruttosozialprodukts Deutschlands.
Da die Energiewende in der von der Bundesregierung  heute geplanten Weise (nach den Zahlen der zitierten Veröffentlichungen) weder zeitmäßig noch kostenmäßig zu realisieren ist, ist zu befürchten, dass die Politik versuchen wird, durch gesetzliche Auflagen , d.h. über  Vorschriften und Verbote, die „Klimakatastrophe“ abzuwenden, z.B. Steuern für den Ausstoß von Klimagasen, Einschränkung der Fahrerlaubnis und Besteuerung von Fahrzeugen mit Verbrennungsmotoren, Abgaben zur Finanzierung öffentlicher Verkehrsmittel, Verteuerung von Reisen mit Flugzeug und Kreuzfahrtschiffen, Ernährungsvorschriften, usw. Diese staatlichen  Auflagen und Abgaben werden die Freiheit der Bürger einschränken und ihren Geldbeutel zunehmend belasten.

Das deutsche Bundesklimaschutzgesetz wird unter „Die große Transformation“ besprochen.

2.3.6 Der globale Nutzen der deutschen Dekarbonisierung

Der globale CO2-Emissionsanteil Deutschlands beträgt etwa 2,3 % (2016), Dagegen sind die 3 größten Kohlendioxid-Produzenten der Welt China, Indien und die USA für etwa 50% verantwortlich, bei einem jährliche Zuwachs von etwa 3% . Würde es Deutschland also gelingen seinen gesamten Ausstoß auf Null zurückzufahren, dann würde allein der jährliche Mehrausstoß dieser 3 größten CO2- Emittenten  in etwas mehr als einem Jahr die deutschen Anstrengungen zunichtemachen.

Eine Abschätzung ergibt, dass wenn der deutsche CO2-Ausstoß auf Null gesetzt würde, die Auswirkung auf die globale Temperatur maximal nur etwa 0,01 Grad (20) betragen würde und somit in der Praxis nicht bemerkbar wäre .

Und der „Energiehunger“ wird rasant weiter steigen. In einer SPIEGELONLINE – Meldung vom 13. November 2007 heißt es:
„… Alle Welt redet vom Klimawandel, der CO2-Vermeidung und dem Energiesparen. Eine gestern in Rom vorgestellte Studie des Weltenergierates WEC zeigt, wie schwer der Kampf gegen die Erderwärmung noch werden dürfte. Denn der Energiebedarf der Menschheit steigt und steigt – und könnte sich bis 2050 verdoppeln. Der WEC-Prognose zufolge wird sich die globale Nachfrage nach Strom, Öl, Gas und Kohle um 70 bis 100 Prozent erhöhen.“

2.4. Der Klimawandel in den Medien

Am 19. 6. 2019 veröffentlicht der US Fernsehsender CNN das folgende Foto

mit der Meldung , dass das Bild eines  Hundeschlittens im Wasser in Grönland ein weiterer Beweis (neben hungernden Eisbären, geschrumpften Gletschern, gestrandeten Walrossen und ausgetrockneten Seen ) für die fortschreitenden Klimakatastrophe sei. Foto und Meldung gingen weltweit durch die Medien.

Einige Tage später folgte, etwas diskreter, die Präzisierung, dass der dänische Meteorologe Olsen  (Dänisches Meteorologisches Institut in Kopenhagen) die vermeintlich brisante Botschaft seines von ihm gemachten Fotos relativiert. Er stimme damit überein, dass das Bild „eher einen symbolischen, denn wissenschaftlichen“ Wert habe, twitterte der Forscher. In  der abgebildeten Region kämen Situationen wie auf dem Foto öfters vor. Das Eis an der abgebideten Stelle sei sogar besonders dick,  so dass das Wasser des geschmolzenen Schnees nicht durch eventuell vorhandene Löcher abfließen kann.

Dieses Ereignis ist kennzeichnend für die heutige Diskussion des Klimawandels. Einerseits eine sehr präsente Öffentlichkeit  aus Politikern, Medien, NGO’s und Bürgern, die in jedem Wetterereignis ein Anzeichen für eine bevorstehende Klimakatastrophe sieht, andererseits, weniger sichtbar, ein nicht geringer Teil der Klimawissenschaftler der die Schlussfolgerungen des IPCC’s nicht teilt.
Einen sehr guten Einblick in die Problematik dieser Auseinandersetzungen der verschieden Gruppen von Wissenschaftlern,  Politikern und Wirtschaftsorganisationen gibt in hervorragender Weise Dr. habil Harald Kehl, ehemals am Institut für Ökologie der TU Berlin (21)..

2.5 Was ist gesichert, was ist noch zu klären?

Nach Kehl kann als gesichert gelten, dass auf die markante Abkühlung zwischen etwa dem 15. und 19. Jahrhundert (kleine Eiszeit)  eine mehr oder weniger kontinuierliche Erwärmung folgte. So sind die Temperaturen in den letzten ca. 150 Jahren   global  um 0.6 ± 0.2 K gestiegen (2004) und erreichten zu Beginn des 21. Jahrhunderts etwa die Temperaturen der Mittelalterlichen Warmzeit (s. auch 3.3.1 der globale Temperaturanstieg).

Es bestehe kein Zweifel daran, dass menschliche Tätigkeit einen negativen Einfluss auf die Atmosphäre haben könne und CO2 klimawirksam sei und eine nachhaltige Umweltpolitik national und international höchste Priorität haben sollte. Umstritten sei dagegen, in welchem Umfang der heutige Temperaturanstieg auf den durch menschliche Aktivitäten gestiegenen CO2 – Gehalt der Atmosphäre zurückzuführen sei ( anthropogenic global warming : AGW). Mittlerweile bezweifeln  etliche Wissenschaftler die zentrale Rolle des Kohlendioxids im komplexen Klimagefüge (s. unten, Einfluss von Sonnenaktivität, Wasserdampf und Wolken).

Die AGW- Hypothese nach einer Veröffentlichung des IPCC aus dem Jahre 2018  (21a):

„Human activities are estimated to have caused approximately 1.0°C of global warming above pre-industrial levels, […] „

„Es wird angenommen, dass die menschlichen Aktivitäten  etwa 1.0°C globaler Erwärmung gegenüber dem vorindustriellen Niveau verursacht haben.“

Diese Auffassung wird in Deutschland durch die Mehrzahl der Politiker und den Medien vertreten.  Die Stellungnahme der Wissenschaftler, die die AGW- Hypothese für nicht richtig halten wird bis auf wenige Ausnahmen nicht publik gemacht. Im Kapitel  2.7 werden die Aussagen einer kleinen Auswahl der  durchaus zahlreichen AGW- kritischen Wissenschaftler zitiert (siehe auch die wissenschaftlichen Arbeiten über den Sonneneinfluss in Abschnitt 4.2.2).

2.5.1 Die Rückkopplung von Wasserdampf und Wolken

Von den Gegnern der CO2- Hypothese wird kritisiert, dass die Klimaprognosen des IPCC von Temperaturerhöhungen bis zu 5°C auf der Annahme einer zu starken positiven Rückkopplung zwischen dem relativ geringen CO2 Treibhauseffekt und der stärkeren Treibhauswirkung des Wasserdampfs beruhen (22). Diese Modelle hätten jedoch nicht einmal die gegenwärtige Entwicklung  korrekt wiedergibt wie John Christy Anfang 2016  bei der Anhörung des  Subcommittee on Space, Science, and Competitiveness des US Repräsentantenhauses über die Größenordnung des menschlichen Einflusses auf das globale Klima darstellt (23).


Bild 5: Die grünen und blauen Messpunkte sind das Ergebnis von Satelliten- und Ballontemperaturmessungen,
die rote Kurve ist die Voraussage des Klimamodells.

John Christy ist Distinguished Professor of Atmospheric Science und Director of the Earth System Science Center an der University of Alabama in Huntsville und  entwickelte  zusammen mit Roy Spencer einen auf Satellitendaten basierende Temperaturmessung der Atmosphäre. In den Jahren 1992 bis 2007 arbeitete Christy an den Sachstandsberichten des IPCC.

Christy ist der Ansicht, die Klimamodelle würden den globalen Temperaturanstieg gegenüber den Messdaten zu hoch angeben. Er bestreitet nicht den Temperaturanstieg als solchen, aber er sieht darin keine Bedrohung für die Menschheit.

Eine Auswertung von Messdaten des Gleichgewichts zwischen der auf die Erdatmosphäre einfallenden Strahlungsenergie der Sonne  und der von der Erde abgestrahlten kurzwelligen und langwelligen Strahlung, ergeben nach Lindzen, R. S. und Choi, Y-S  eine negative Rückkopplung zwischen CO2 und Wasserdampf und  eine deutlich kleinere Temperaturerhöhung als die IPCC Berechnungen (24). Die Messdaten sind Satellitenmessungen im Rahmen des ERBE- Projekts (Earth‘s Radiation Budget Experiment).

2.5.2 Die Klimasensitivität und Rückkopplungseffekte

„Die Klimasensitivität der Erde wurde oft als der „Heilige Gral“ der Klimawissenschaft angesehen. Es gibt keine andere Maßzahl, die soviel über den Klimawandel aussagt wie die Klimasensitivität. Sie ist ein Maß für die Änderung der mittleren globalen Erdoberflächentemperatur in Folge einer Verdopplung der atmosphärischen CO2-Konzentration. Der Wert der Klimasensitivität liegt nach Einschätzung des fünften Sachstandsberichts des Intergovernmental Panel on Climate Change (IPCC) wahrscheinlich zwischen 1,5 und 4,5 °C und umfasst somit eine Unsicherheit, die sich seit den frühen Untersuchungen der Klimasensitivität in den 1970er Jahren nicht verringert hat.“ (25)

Bild 6: Das Gegenstrahlungsmodell des natürlichen Treibhauseffekts (Kiehl and Trenberth, 1997).

Mauritsen* und Stevens stellen fest (26), dass in den aktuellen Klimamodellen eine Klimasensitivität zwischen 2 und 4.6 K angenommen wird sowie eine schwache Zuname der weltweiten mittleren Niederschläge .Die aktuellen Beobachtungen des Klimas ergeben jedoch eine Klimasensitivität, die am unteren Ende dieses Bereichs liegt und dass einige Änderungen im Wasserkreislauf falsch eingeschätzt werden. Diese Diskrepanzen lassen es möglich erscheinen, dass einige wichtige Rückkopplungen in den Klimamodellen fehlen. Eine zu den bisherigen Annahmen widersprüchliche Hypothese schlägt vor, dass sich in der tropischen Atmosphäre die wolkenfreien und trockenen Bereiche bei einer Klimaerwärmung (verursacht z.B. durch CO2) ausdehnen und somit einen größeren Anteil infraroter Strahlung ins All austreten lassen. Dieser sog. Iriseffekt würde eine negative Rückkopplung darstellen, die nicht in den Modellen enthalten ist. Die Autoren finden, dass durch die Berücksichtigung dieses Effekts bei Erhöhung der CO2 Konzentration die Ergebnisse der Simulationen sowohl für die Temperatur wie auch für den Wasserkreislauf besser mit den Beobachtungen übereinstimmen.

Scafetta (27) schreibt in seinen Schlussfolgerungen „…….obwohl die Gleichgewichts-Klimasensitivitäten ECS bei CO2-Verdopplung in den Klimamodellen (General Circulation Models) weit um einen Mittelwert von 3°C schwanken, so zeigen neuere Studien, dass diese Werte zu hoch sind. Seit dem Jahre 2000 gibt es eine Tendenz „….(in den Studien)…“ kleinere Klimasensitivitäten zu finden (siehe Abb. ).Die jüngsten Studien schlagen …..Gleichgewichts-Klimasensitivitäten ECS von weniger als 2°C vor…..So legen die die Ergebnisse nahe, dass die Klimamodelle (GMC’s) die wirkliche menschengemachte globale Erwärmung um das 2- bis 3-fache vergrößern. Es könnte notwendig sein die Treibhausgas-Theorie einer gründlichen Überprüfung zu unterziehen.“

Bild7: Zusammenstellung der veröffentlichten Klimasensitivitäten ECS bei CO2 Verdopplung im Laufe der Jahre.
Quelle: http://www.iieta.org/sites/default/files/Journals/IJHT/35.Sp01_03.pdf

2.5.3 Zusammenhang globale Temperatur und CO2 im Lauf der Erdgeschichte

Bild 8: Geologische Zeitskala : CO2-Konzentration und Temperaturschwankungen

Die obenstehende  Grafik zeigt in einer Gegenüberstellung die Entwicklung von Temperatur und CO2 im Laufe der Erdgeschichte (28). Obwohl in der Perm-Periode das CO2 Niveau niedriger als heute war (teilweise weniger als 210 ppm, aktuell 400ppm), war die Temperaturerhöhung deutlich höher (ca 10°C ) als der aktuelle Anstieg von ca 1°C
Auf der Webseite “Real Climate” erscheint 2014 ein Artikel “Can we make better graphs of global temperature history ?“ (29), der darauf verweist , dass die obige Kurve (28) im Laufe der Zeit ständige Veränderungen erfahren hat und nicht auf den neuesten Daten beruht.
Professor W. Jackson Davis , Leiter des amerikanischen Umweltinstituts ESI analysiert im Jahre 2017 den CO2/T Zusammenhang mit Hilfe von in den letzten 10 Jahren veröffentlichten Proxymessungen der Temperaturen und der atmosphärischen Kohlendioxid-Konzentrationen während des Phanerozoikums (~ 540 Millionen Jahre bis heute (540 My before present)) (30).
Angaben des Verfassers :“ Die Temperatur der Proxy-Datenbank umfasst Tausende von Messungen durch Hunderte von Forschern für die Zeitperiode von vor 522 Millionen Jahren bis heute, während die Proxies des atmosphärischen CO2 während des Äons (Erdzeitalters) des Phanerozoikums 831 Messungen umfassen, die voneinander unabhängig von Hunderten von Forschern für den Zeitraum von vor 425 Millionen Jahren bis heute veröffentlicht wurden. Solch ein bisher nicht existierendes Datenvolumen über das Klima des Phanerozoikums ermöglicht die bis heute genaueste empirische Erfassung der Relation zwischen der atmosphärischen CO2-Konzentration und der Temperatur des Klimas der Vergangenheit, was das Ziel dieser Studie ist.“

Definition: Ein Klimaproxy ist ein indirekter Anzeiger des Klimas, der in natürlichen Archiven wie Baumringen, Stalagmiten, Eisbohrkernen, Korallen, See- oder Ozeansedimenten, Pollen oder menschlichen Archiven wie historischen Aufzeichnungen oder Tagebüchern aufgezeichnet wurde (Wikipedia)

Bild 9: Klima im Verlauf der Erdgeschichte (rote Kurve :Temperatur, grüne Kurve CO2-Konzentration)

δ18O bzw. Delta-O-18 ist ein Maß für das Verhältnis der stabilen Sauerstoff-Isotope 18 O und 16 O. Ein Anstieg des δ18O um 0,22 ‰ entspricht einer Abkühlung um 1 K. (Wikipedia) https://de.wikipedia.org/wiki/%CE%9418O

Zur obigen Abbildung kommentiert Davis: „Proxies der atmosphärischen CO2-Konzentration und der Temperatur über der gleichen Zeitachse (Bild oben) zeigen eine offensichtlich Entkopplung und sogar eine gegenläufige Beziehung . Z.B. eine Spitze der CO2-Konzentration bei etwa 415 My tritt bei einem Temperatur-Plateau um 445 My auf. Ähnlich fällt ein CO2 –Peak bei 285 Mybp mit einem Temperaturplateau bei etwa 280 My , und damit mit der Permokarbon Eiszeit (in der Abbildung mit dem Label 2 bezeichnet) zusammen. In jüngeren Perioden, wo die die Auflösung der Datenerfassung höher ist, ist offensichtlich der gleiche Trend zu beobachten. Die CO2 Konzentration nimmt eine Spitze bei etwa 200 My während einer Abkühlperiode an, genauso wie ein schwächerer CO2 Peak bei etwa 37 My. Die kürzeren Abkühlungsperioden des Phanerozoikums, mit den Labels 1-10, scheinen keinen bestimmten Zusammenhang mit Schwankungen der atmosphärischen CO2-Konzentration zu haben“
Im Kapitel Schlussfolgerungen stellt Davis fest :“ …..das wichtigste Ergebnis dieser Studie ist, dass über fast während des gesamten Phanerozoischen Klimas weder die atmosphärische CO2-Konzentration noch der der Strahlungsantrieb ΔRFCO2. mit T korreliert ist“.

Definition: Strahlungsantrieb (radiative forcing) ist die Differenz zwischen absorbierter  Sonneneinstrahlung und Energierückstrahlung in den Weltraum. Der CO2- Strahlungsantrieb ist die durch eine CO2-Änderung verursachte Variation, wenn alle anderen Einflussgrößen (z.B. Sonneneinstrahlung) konstant gehalten werden.

Davis erklärt den weitgehend fehlenden Zusammenhang zwischen Temperatur und CO2- Konzentration damit, dass der Strahlungsantrieb und damit die Temperaturerhöhung eine logarithmische Funktion der Kohlendioxidkonzentration ist, und bei den sehr hohen ppm Werten des Phanerozoikums bis über 5000 ppm , eine CO2 Erhöhung keinen Einfluss auf die Temperatur hätte. Mit abnehmendem CO2 Gehalt zum Ende des Phanerozoikums nimmt der marginale Strahlungsantrieb (die Änderung des Strahlungsantriebs bei einer minimalen Änderung des CO2) wohl zu, doch die Studie zeigt dass in diesen jüngsten Klimaepochen die Temperatur mit zunehmendem CO2 abnahm.. CO2 war nicht der Haupttreiber des Klimas des frühen Känozoikum.

Betrachtet man den sehr viel jüngeren Zeitraum zwischen 11 000 und 200 (Beginn der Industrialisierung), so ist festzustellen: In diesem Zeitraum existiert  keine  Korrelation und  keine Kausalität. Die beiden Kurven unten in Bild 10  stellen die Ergebnisse von Eiskernbohrungen  dar, die in den Dateien GISP2 (Temperatur) und EPICA Dome C (CO2) der US National Oceanic and Atmospheric Administration (NOAA) zusammengefaßt sind (31).
(Der jüngste Temperaturanstieg des Holozäns fehlt , da die verfügbaren Daten der Eiskernbohrungen nicht bis ins 20. Jahrhundert reichen).

Bild 10. The upper panel shows the air temperature at the summit of the Greenland Ice Sheet, reconstructed by Alley (2000)from GISP2 ice core data. The time scale shows years before modern time. The rapid temperature rise to the left indicate the final part of the even more pronounced temperature increase following the last ice age. The temperature scale at the right hand side of the upper panel suggests a very approximate comparison with the global average temperature (see comment below). The GISP2 record ends around 1854, and the two graphs therefore ends here. There has since been an temperature increase to about the same level as during the Medieval Warm Period and to about 395 ppm for CO2. The small reddish bar in the lower right indicate the extension of the longest global temperature record (since 1850), based on meteorological observations (HadCRUT3). The lower panel shows the past atmospheric CO2content, as found from the EPICA Dome C Ice Core in the Antarctic (Monnin et al. 2004). The Dome C atmospheric CO2record ends in the year 1777.

Nach der voranstehenden Graphik war der Zeitraum von vor 7000 bis 8000 Jahren sehr warm (Klimaoptimum Holozän), wärmer als heute.

„Vor 8 000 Jahren wurde die Erde von einem Interglazialklima bestimmt, das wärmer und feuchter war als es heutzutage in vielen Teilen der Welt ist. Tropenwälder in Afrika (und wahrscheinlich auch in Asien ) waren flächenmäßig ausgedehnt und Wüstenregionen in Afrika und Asien stark reduziert.“ (32)

Als das Klima wärmer war, war die globale Ausdehnung der Wüsten geringer, weil die Oberfläche der Ozeane, nämlich 70% der Erdoberfläche, sich ebenso wie das Land erwärmte und dadurch mehr temperaturbedingte Wasserverdampfung und Regenfälle auf dem Land verursacht wurden. (31, Watts)

Die Wissenschaftlichen Arbeiten in (33) untersuchen die die Eiszeit-/Warmzeitzyklen der letzen ca. 400 000 Jahre. Sie stellen jeweils eine Korrelation fest, die Temperaturanstiege sind regelmässig von einer CO2 -zunahme begleitet. Dabei steigt immer zuerst die Temperatur an, der CO2-Anstieg  folgt mit einer Verzögerung von ca. 500 bis ca 1500 Jahren.

Caillon stellt bei seinen Untersuchungen (34) fest, dass beim Temperaturanstieg des Eiszeitendes Termination III (240 000 Jahre vor heute) in der Antarktis die CO2-Konzentration  erst verzögert  anwächst, während es sich auf der Nordhalbkugel umgekehrt verhält.

2.6 Die politische Bedeutung des IPCC und sein Selbstverständnis

„Der Intergovernmental Panel on Climate Change (IPCC) ist eine Institution der Vereinten Nationen. In seinem Auftrag tragen Wissenschaftlerinnen und Wissenschaftler weltweit den aktuellen Stand der Klimaforschung zusammen und bewerten anhand anerkannter Veröffentlichungen den jeweils neuesten Kenntnisstand zum Klimawandel. Der IPCC bietet Grundlagen für wissenschaftsbasierte Entscheidungen der Politik, ohne jedoch konkrete Lösungswege vorzuschlagen oder politische Handlungsempfehlungen zu geben.“(35))
Da der IPCC  keine eigene Forschungsarbeit leistet, sind die ausgewählten Ergebnisse und Empfehlungen fortlaufend Gegenstand erbitterter Diskussionen.

So drängen mehr als 300 Wissenschaftler in einer Petition initiiert von Richard Lindzen, Professor Emeritus Massachusetts Institute of Technology, Präsident Trump die USA aus dem Pariser Klimavertrag zurückzuziehen, da die CO2 Reduktionsmaßnahmen wissenschaftlich nicht berechtigt sind und außerdem soziale und wirtschaftliche Gefahren beinhalten. (36) Die Klimawarner begegnen den Skeptikern meist mit der Behauptung dass 97% der Klimawissenschaftler mit der Schlussfolgerung eines menschengemachten Klimawandels übereinstimmen. Diese Zahl ist das Ergebnis einer Studie mit einer verzerrten Auswertungsmethode (37) und wird von führenden Klimawissenschaftlern wie z.B. Nils-Axel Mörner (54) nicht geteilt. Von den Verfechtern der CO2-Hypothese werden jene Wissenschaftler, welcher dieser Einschätzung skeptisch gegenüber stehen, als sogenannte „Klimaskeptiker“, „Klimakritiker“ oder „Klimaleugner“ (denier, AGW heretics) charakterisiert (21) (Die Klimadebatte und die neue „Verantwortung“).

Kehl schreibt: „Dass Skepsis gegenüber offiziellen Verlautbarungen des IPCC und seinen Protagonisten angebracht ist, zeigen Falschmeldungen, Manipulationen und dubiose Wissenschaft wie die durch Datenpiraterie an die Öffentlichkeit gelangte E-Mailkorrespondenz zwischen führenden Vertretern der AGW-Hypothese .“ (s.a. Anhang)
° Zweifel säte das vom IPCC  prognostizierte  Verschwinden des Himalaya Gletschers bis zum Jahre 2035. Die Nachforschungen eines kanadischen Geografen ergaben, dass die Information aus einer Veröffentlichung eines russischen Gletscherexperten stammte , der allerding als Datum nicht 2035 sondern 2350 angegeben hatte (37 a).
° Spektakulär ist die sog Hockeystick- Diskusssion:
Der IPCC Bericht 2001 enthält eine Temperaturkurve des US-Klimaforschers Michael Mann, die vor dem 20. Jahrhundert einen flachen Verlauf zeigt und dann einen steilen Anstieg. Die Temperaturänderungen der mittelalterlichen Wärmeperiode und der kleinen Eiszeit, die im IPCC-Bericht 1990 noch vorhanden sind, tauchen nicht mehr auf. Dieses Diagramm wurde als letztes und wichtigstes Beweismittel für eine menschengemachte Klimaerwärmung gewertet.  (21) (Rekonstruktion der mittleren Temperatur auf der Nordhalbkugel in den vergangenen 1000 bis 2000 Jahren). Nach massiven Vorwürfen erwies sich, dass die Daten manipuliert worden waren (38).
° Der e-Mail Skandal im Jahre 2009 zeigt anhand  von gehackten Mails aus dem Climate Research Unit Hadley Center, wie prominente Klimaforscher sich darüber unterhalten,  wie sie mit Kritikern umgehen, wie Datensätze so verändert werden, dass sie zur offiziellen Theorie passen, und wie kritische Journalisten boykottiert werden sollen (39, 40).

So schreibt H: Kehl weiter : „Gleichwohl werden aus gutem Grunde die widersprüchlichen Verlautbarungen und Erwartungen von Vertretern der „CO2-Hypothese“ intensiver hinterfragt, da deren – wohl oft von Ideologie und Geltungssucht geprägten – Äußerungen von hoher gesellschaftspolitischer Bedeutung sind und besonders in den Medien zu hysterischen Reaktionen geführt haben und die Klimafrage von einigen Politikern und Wissenschaftlern zum „Schicksalsthema“ der Menschheit schlechthin hochstilisiert wird.“ (21) (Die Klimadebatte und die neue Verantwortung).

Ein Interview mit Stephen Schneider,  Klimawissenschaftler und langjähriger Mitarbeiter des Weltklimarats (IPCC), illustriert das Dilemma der Klimaexperten (21) (Die Klimadebatte und die neue Verantwortung) „Einerseits sind wir als Wissenschaftler ethisch an die wissenschaftliche Methode gebunden, d. h. die Wahrheit zu sagen, die ganze Wahrheit und nichts als das – einschließlich all unserer Zweifel, Vorbehalte, Wenn’s, Und’s, und Aber’s. Andererseits sind wir nicht nur Wissenschaftler, sondern auch menschliche Wesen. Und wie die meisten Menschen würden wir die Welt gerne als besseren Ort sehen, was in diesem Kontext bedeutet, dass wir das Risiko eines potentiell katastrophalen Klimawandels verringern wollen. Um das zu tun benötigen wir eine breite Unterstützung, wir müssen die Öffentlichkeit dazu bringen, sich eine Vorstellung davon zu machen. Dazu sind viele Medienberichte notwendig. Also müssen wir ängstigende Szenarien liefern, einfache, dramatische Äußerungen machen, und Zweifel, die wir vielleicht haben, wenig erwähnen. Diese „ethische Doppelbindung“, in der wir uns oft befinden, kann durch keine Formel gelöst werden. Jeder von uns muss entscheiden, was das richtige Gleichgewicht ist zwischen effektiv sein und ehrlich sein. Ich hoffe, dass es auf beides hinausläuft.“
(deutscher Wortlaut Wikipedia: https://de.wikipedia.org/wiki/Stephen_Schneider)

Weitere Kommentare, die zeigen welchen Einfluß und welche Bedeutung von  Politik und  Umweltorganisationen dem IPCC und ähnlichen Umweltprojekten zugeordnet werden, siehe (41):
„Ein weltweiter Klimaschutzvertrag muß geschlossen werden, auch wenn es keinen wissenschaftlichen Beweis für die Existenz des Treibhauseffektes gibt„. (Richard Benedick, President of the National Council for Science and the Environment, zitiert von Dixy Lee Ray in ihrem Buch Trashing the Planet (1990))“
„Wir feuern Bilder ab statt Raketen – Meinungsbomben, die von den Medien geliefert werden„. (Robert Hunter, Greenpeace, Sink the Rainbow, von John Dyson, London, 1986)
H. Kehl bemerkt (21)(Die Klimadebatte und die neue Verantwortung):
„Und es sollte nicht allzu sehr verwundern, wenn nicht nur vermutet wird, dass die gegenwärtige – minimale – globale Temperaturzunahme, mit dem Aufhänger CO2 – Anstieg, nur ein probates Argumentations-Vehikel ist zur „politisch korrekten“ Durchsetzung eben dieser eher energie-wirtschaftlichen Intentionen, auch unter Inkaufnahme zutiefst antidemokratischer Zielsetzungen“

Nach dem Kopenhagener Klimagipfel berichtet der Spiegel (42):„Um eine global nachhaltige Lebensweise zu realisieren, bräuchten wir umgehend eine „große Transformation“, fordert etwa Hans Joachim Schellnhuber, Direktor des Potsdamer Instituts für Klimafolgenforschung. Was genau damit gemeint ist, bleibt oft vage. Ein Teil, wenn nicht sogar das Herzstück dieser großen Transformation ist in den Augen mancher Klimaforscher – und anderer Wissenschaftler, die sich an der Diskussion beteiligt haben – ein anderes Politikregime: „Wir benötigen eine autoritäre Regierungsform, um den Konsens der Wissenschaft zur Treibhausgasemissionen zu implementieren,“ argumentieren die Australier David Shearman and Joseph Wayne Smith in ihrem Buch „The Climate Change Challenge and the Failure of Democracy“.

Der bekannte Klimaforscher James Hansen fügt ebenso resigniert wie ungenau hinzu, dass im Fall der Klimaveränderung der demokratische Prozess nicht funktioniere.

2.7 Einige prominente Wissenschaftler, die die AGW Hypothese nicht teilen

John Christy, ( Ph.D. Wissenschaften der Atmosphäre, Distinguished Professor of Atmospheric Science und Director of the Earth System Science Center an der University of Alabama in Huntsville), erklärt vor einem Gremium des House of Representatives der Vereinigten Staaten in Bezug auf die Klimamodelle (23):

“These models failed at the simple test of telling us ‘what’ has already happened, and thus would not be in a position to give us a confident answer to ‘what’ may happen in the future and ‘why‘. “

“The information in this figure (Autor: Bild 5 oben) provides clear evidence that the models have a strong tendency to over-warm the atmosphere relative to actual observations.  On average the models warm the global atmosphere at a rate 2.5 times that of the real world.”

 Horst Malberg, (Professor em. Für Meteorologie und Klimatologie, ehem. Direktor des Meteorologischen Instituts der Freien Universität Berlin), analysiert den Anteil der Sonneneinwirkung an der globalen Erwärmung (80):

Für die vielen Treibhaustheoretiker ist der anthropogene Treibhauseinfluss die primäre Ursache der globalen und regionalen Erwärmung. Die natürlichen Klimaprozesse sollen ihrer Meinung nach nur noch eine untergeordnete Rolle beim Klimawandel spielen.[…] 

In Anbetracht eines sich seit Jahrmillionen auf allen Zeitskalen permanent wandelnden Klimas muss man sich fragen, wie realistisch es ist, dass die natürlichen Klimaprozesse bei der globalen Erwärmung im Vergleich zum anthropogenen Treibhauseffekt nur noch eine sekundäre Rolle spielen sollen. Dieses gilt insbesondere für den Einfluss der Sonne.

[…]Der veränderliche solare Energiefluss ist mit an Sicherheit grenzender Wahrscheinlichkeit der dominierende Antrieb im Klimasystem der Erde.

 […]Damit folgt: Der Temperaturanstieg in den letzten 150 Jahre kann maximal zu einem Drittel durch den anthropogenen Treibhauseffekt verursacht worden sein. Der anthropogene Treibhauseffekt wird somit in den Klimamodellen des UN–Klimareports 2007 wesentlich überschätzt.“

Horst-Joachim Lüdecke, (Physiker für Strömungsmechanik und emeritierter Professor an der Hochschule für Technik und Wirtschaft des Saarlandes)  deckt in seinem Buch (21b) umfassend die verschiedenen wissenschaftlichen, gesellschaftlichen und politischen Aspekte der Energiewende und des Klimawandels, speziell in Deutschland, ab.

Zur wissenschaftlichen Basis der AGW-Hypothese und zur Diskussion ihrer Anhänger und Kritiker schreibt er:

„Einer der berühmtesten Physiker des 20. Jahrhunderts und Nobelpreisträger, Richard Feynman, verdeutlichte dieses moderne Paradigma wie  folgt:  Egal, wie bedeutend der Mensch ist, der eine Theorie vorstellt, egal wie elegant sie ist, egal wie plausibel sie klingt,  egal wer sie unterstutzt: Wenn sie nicht durch Messungen  bestätigt werden kann, ist sie falsch!

[…] Die AGW-Hypothese ist indes zwingend falsch. Warum? Sie ist mit dem modernen Paradigma unserer naturwissenschaftlichen Wahrheitsfindung nicht vereinbar. Unter Paradigma versteht man eine allgemein verbindliche Denk- und Vorgehensweise. Es handelt sich im vorliegenden Fall um die Art und Weise, wie zuverlässige Kenntnisse über die Physik, hier über die Physik von Klimaänderungen, erlangt werden können. Das Paradigma der modernen Naturwissenschaft ging von Galileo Galilei aus und kam unverändert über Newton, Einstein und alle Nachfolger bis hin zur modernsten Physik auf uns. Der Grund, warum die AGW-Hypothese falsch ist: Sie kann bis heute nicht durch Messungen belegt werden.

[…] wird schnell deutlich,  dass die  Hypothese von einer gefährlichen globalen Erwärmung durch anthropogenes CO2 ihren alleinigen Ursprung in fiktiven Klimamodellrechnungen, aber nicht in den realen Messdaten hat. Dies bestätigt zum Beispiel ganz unverblümt Prof. Chris Folland vom größten Klimaforschungszentrum Englands, dem Hadley Centre for Climate Prediction and Research  (CRU):  

” Die Messdaten sind nicht maßgebend. Wir begründen unsere Empfehlungen nicht mit Messdaten. Wir begründen Sie mit Klimamodellen”.    

[…] Initiativen zu Klima-Sachdiskussionen mit Diskussionspartnern beider Seiten scheitern regelmäßig an den IPCC-Experten, sich öffentlichen Diskussionen mit ihren Meinungskontrahenten zu stellen [157]. […]“

Die Kommunikation der Wirtschaft, Politik und Medien kommentiert Lüdecke  wie folgt:

„Die deutsche Intelligenz in Medienredaktionen, Hochschulen und Führungsetagen von Unternehmen, die diese Entwicklungen und die entstehenden Ökostrukturen nicht billigt, schweigt dennoch, duckt sich weg und versucht zu profitieren. […] Zivilcourage ist kein deutsches Wort.     

[…] Auch bei größter Nachsicht kann man nicht ernsthaft behaupten, die deutschen Medien wurden im Klimageschäft ihrer verpflichtenden Aufgabe nachkommen, sachlich und neutral zu berichten. Es wurde schon betont, dass sich die Mehrheit der Medien-Redaktionen zu freiwilliger Selbstgleichschaltung in Berichten über Klima, CO2, Extremwetter, Arktiseis etc. entschlossen haben.

 […]Es ist aber leider eine Gleichschaltung mit den übelsten Klima-Alarmisten. Die Gründe für eine Berichterstattung, die keine ordentlichen journalistischen Recherchen und keine nüchterne sachliche Sicht mehr zulassen, sind:  1) In den deutschen Medienredaktionen sitzen weit überwiegend Redakteure, die Journalismus, Soziologie oder dergleichen studiert haben. […] 2) TV- und Radio-Aufsichtsräte werden nach politischen Kriterien installiert und müssen infolgedessen ihren Redakteuren eine verbindliche Korrektheits-Linie vorgeben.  3) Insbesondere die Printmedien sind auf Einkünfte durch grüne Annoncen angewiesen.“  

Zur Rolle der Politik und der Medien in der Klimalobby kommentiert Lüdecke (21b)

„Hatten ehemals gegen Windräder klagende Anrainer vor Gericht noch gute Chancen, hat sich dies infolge neuer Rechts- und Auslegungsbestimmungen geändert. Der grundgesetzlich verankerte Schutz von Tieren, hier insbesondere von Vögeln und Fledermäusen, greift nicht mehr. […].  Das der Rechtsprechung von der Politik als primär vorbezeichnete Gut des ” Klimaschutzes” hat Vorrang vor dem Naturschutz. Die Politik bleibt bei dieser Linie, obwohl fachkundige Befürworter grüner Energien freimütig eingestehen, dass weder durch Windradparks noch durch   Solaranlagen in nennenswertem Umfang CO2 vermieden werden kann. 

 […]Die deutsche Klima- und Energiepolitik ist rational nicht mehr nachvollziehbar. Auffällig ist das sich über viele Jahre erstreckende Verlassen einer gemäßigt kritischen Klima-Sichtweise [14] bis hin zu einer an Diktaturen gemahnenden Klima-Doktrin, […] Das unaufhaltsame Umschwenken wurde nicht mit gesicherten wissenschaftlichen Erkenntnissen begründet, denn die gab es nicht.[…]. Die Politik scherte sich nicht darum.[…] Nicht nur in der Klima- und Energiepolitik hebelt der Fraktionszwang unsere Demokratie aus, denn er hindert die von uns  gewählten Volksvertreter, ihrem geleisteten Amtseid folgend,  nach eigenem Wissen und Gewissen politisch zu entscheiden.  Schlussendlich bietet die Klima- und Energiewende-Berichterstattung unserer Medien den besten Maßstab für die Beschädigung der demokratischen Kultur unseres Landes. Der Mehltau politischer Korrektheit, des Verschweigens von nicht genehmen Fakten, ökoideologischer Belehrungen und einer an die ehemalige DDR erinnernden Klima- und Energiewende-Propaganda haben sich wie eine erstickende Decke über unser Land gelegt.“

Nils-Axel Mörner, (PhD Quartärgeologie, ehem. Dekan der Fakultät für Paläogeophysik und Geodynamik der Universität Stockholm) vergleicht die Konzepte der menschengemachten globalen Erwärmung und der natürlichen globalen Erwärmung (21c).

Übersetzung aus dem Englischen durch den Autor

„Das Konzept der menschengemachten globalen Erwärmung (AGW,) angetrieben durch die CO2-Zunahme in der Atmosphäre, wird mit dem Konzept der natürlichen globalen Erwärmung (NGW), angetriebendurch die Variabilität der Sonnenaktivität, verglichen .Die Anwendung des AGW-Konzepts beruht auf Modellen, während das NGW-Konzept  auf zahlreichen empirischen und sich auf Beweise stützenden Fakten beruht. Sogar noch mehr, die langfristige  solare Variabilität kündigt für 2030-2050 ein neues Grosses Solares Minimum (Typus Kleine Eiszeit) mit strengen Klimabedingungen an. Dies ist unverträglich mit all dem Gerede über eine zunehmende sogar sich beschleunigende globale Erwärmung. In gleicher Weise gibt es keine besondere Nachricht über einen zukünftigen Meeresspiegelanstieg der sowohl Tieflandgebiete wie Inseln überfluten wird“ 

Nir Shaviv, Professor und Vorsitzender  des Racah Instituts der Physik,  Hebrew University von Jerusalem beschreibt den signifikanten Einfluss der Sonne auf die globale Erwärmung (21d).

„To begin with, the story we hear in the media, that most 20th-century warming is anthropogenic, that the climate is very sensitive to changes in CO2, and that future warming will, therefore, be large and will happen very soon, simply isn’t supported by any direct evidence,[…] In fact, there is no evidence on any time scale showing that CO2 variations or other changes to the energy budget cause large temperature variations. There is, however, evidence to the contrary. Tenfold variations in CO2 over the past half-billion years have no correlation whatsoever with temperature;

[…]Since solar activity significantly increased over the 20th century, a significant fraction of the warming should be then attributed to the sun.

[…]Most bothersome, however, is that this mindset has compromised the ability to convey the science to the public.

One example from the past month is my interview with Forbes. A few hours after the article was posted online, it was removed by the editors “for failing to meet our editorial standards.” The fact that it’s become politically incorrect to have any scientific discussion has led the public to accept the pseudo-argumentation supporting the catastrophic scenarios.

[…]Once China realizes it can’t rely on coal anymore, it will start investing heavily in nuclear power to supply its remarkably increasing energy needs, at which point, the West won’t fall behind“. 

 Nicola Scafetta, PhD in Physik, Universität von Neapel Frederico II et al vergleichen die Ergebnisse der Rechenmodelle des IPCC mit der Realität und stellen ein Klimamodell vor, das die Wechselwirkung zwischen dem Sonnendynamo und den Planeten berücksichtigt (21e),(27).(Übersetzung aus dem Englischen durch den Autor)

(21e): Abstract

„[…] Um das letztgenannte Problem ( Autor: “die merkliche Erwärmung seit dem Beginn des 20.Jahrhunderts“)korrekt zu behandeln, ist es erforderlich die Phänomenologie der natürlichen Klimafluktuationen zu verstehen. Diese werden gut durch mehrere Klimaindizes wie  die Atlantische Multidekaden-Oszillation, die Pazifische Dekaden-Oszillation und die El Nino-Southern Oscillation (Autor ) beschrieben.[…]“

 Einführung

 „[…]Auf der dekadischen bis tausendjährigen Zeitskala haben diese Oszillationen Perioden von 9.1 Jahren, die wahrscheinlich ein Sonne-Mond-Gezeiten Zyklus ist, von 10-11 Jahren ,  der 11-jährige Sonnenzyklus , der im 20. Jahrhundert im Mittel 10.5 Jahre betrug, von Quasi-20 Jahren- und Quasi-60 Jahren- Zyklen (Autor: „Quasi“ soll heissen, dass diese Schwingungen regelmässig auftreten, aber keine konstante Periode haben), die in Beziehung mit wichtigen Oszillationen des Sonnensystems durch die Jupiter-Saturn Umlaufbewegungen (Autor: um die Sonne) stehen, von Quasi 115-Jahren und Quasi 980-Jahren  Oszillationen, die in Beziehung zu Schwebungen zwischen Planeten -und Sonnen- Oszillationen stehen. […]“ 

 (27): 4. Vorhersagen des semiempirischen Modells

„Seit 2010 hat Scafetta vorgeschlagen, dass die Dynamik der Klimaaufzeichnungen nahelegt, dass das System nach spezifischen Oberschwingungen oszilliert, die in den Gravitations-und elektromagnetischen Schwingungen der Sonne und des Sonnensystems gefunden werden können.[…]“

(21e): Einführung

„Die neuen Ergebnisse stimmten mit alternativen Aufzeichnungen des Klimas und der Sonnenaktivität überein, die zeigen dass während des gesamten Holozäns der letzten 10 000 Jahre eine 1000-jährige Oszillation auftrat. Somit würde die Existenz einer Millenum –Oszillation die Zuverlässigkeit der Klimamodelle, die die AGW Theorie unterstützen in Frage stellen, weil sie nahelegen, dass etwa 50% der seit 1850 beobachteten Erwärmung natürlichen Ursprungs  sein könnte.

[…]Seit 1850 hat man mehrere 30-Jahr Trendwenden beobachtet, eine Erwärmung von 1850 bis 1880, eine Abkühlung von 1880 bis 1910, wieder eine Erwärmung von 1910 bis 1940, eine Abkühlung von 1940 bis 1970 dann stieg zwischen 1970 und 2000 die Temperatur erneut an. Schliesslich war die Temperatur seit 1998 für etwa 20 Jahre verhältnismässig stabil…[…]“

 Abstract

„Diese komplexe natürliche Dynamik ist immer noch nicht in den General Circulation Models (Autor: GCM Rechenmodelle) berücksichtigt, auf denen die AGW Theorie beruht, die hauptsächlich  vom IPCC (Intergovernmental Panel on Climate Change) vertreten wird.

[…]Wir finden, dass die Rechenmodelle, während der Zeit der historischen Aufzeichnung (Autor: 1860 bis 2016) , deutlich über der beobachteten Erwärmung, liegen.“

(27) Abstract

 „ Die Zeitspanne von 2000 bis  2016 zeigt einen bescheiden Temperaturanstieg, den die Vertreter der AGW als die „Pause“ oder „Hiatus“ bezeichnet haben.

[…]Jedoch erzeugte die Temperaturspitze im Zeitraum 2015-2016 , das „heisseste Jahr seit Beginn der Temperaturaufzeichnung“,  den Eindruck, dass ab 2014  die Temperaturpause beendet wäre .[…]

Beobachtete globale Temperatur (links) und Temperaturverlauf ohne ENSO-Effekt (rechts)

https://www.researchgate.net/figure/left-Original-temperature-records-blue-against-the-CMIP5-mean-simulations-from-138_fig3_320038265

Die Autoren zeigen, dass diese Temperaturspitze in keinem Zusammenhang mit dem menschenverursachten Antrieb (Autor:CO2) steht, sie ist eine Folge der natürlichen kurzfristigen Klimafluktuationen der El-Nino-Southern Oscillation (ENSO). Damit sind die GCM-Rechenmodelle die üblicherweise benutzt werden die AGW-Theorie zu unterstützen, höchstwahrscheinlich fehlerhaft. Dagegen stimmen  die semi-empirischen Klimamodelle […],die auf einer speziellen Auswahl von natürlichen Klimaoszillationen , die  wahrscheinlich astronomischen Ursprungs sind, beruhen, kombiniert mit einem deutlich reduzierten menschengemachten Beitrag, weitaus besser mit den jüngsten Beobachtungen überein.“ 

Eine Erläuterung der Sonnenoszillationen und ihres Ursprungs finden Sie unter den folgenden URL‘s:

Our Sun’s Mysterious 11-Year Cycle Appears to Be Driven by Alignment of The Planets

https://www.sciencealert.com/the-sun-s-11-year-cycle-have-may-have-something-to-do-with-the-gravity-of-the-planets

A Model of a Tidally Synchronized Solar Dynamo

https://arxiv.org/pdf/1803.08692.pdf

The complex planetary synchronization structure of the solar system

https://arxiv.org/pdf/1405.0193.pdf 

2.8 Ein „Klimaschützer“ tritt zum „Klimarealismus“ über

Michael Shellenberger ist ein amerikanischer Autor und Klimaschützer, Mitbegründer des „Breakthrough Instituts“ (Umweltforschungsinstitut, Kalifornien)) und Gründer von „Environmental Progress“ (Forschungs- und Politikorganisation für saubere und gerechte Energie). Er wurde vom Time Magazin zum „Umwelthelden 2008“ gekürt und erhielt 2008 den  „Green  Book Award“ (Wikipedia). 

 Nun ist er im Juni 2020 mit einer bemerkenswerten Veröffentlichung im Forbes Magazin hervorgetreten (Forbes hat die Veröffentlichung des Artikels später zurückgezogen aufgrund der Unvereinbarkeit des Inhalts mit den Richtlinien von Forbes) (21f). Er schreibt (Übersetzung aus dem Englischen durch den Autor):

„Im Namen der Umweltschützer in aller Welt möchte ich mich formell für die Klimaangst entschuldigen, die wir in den letzten 30 Jahren geschaffen haben.

[…]Mit 16 wurde ich ein Umweltschützer, als ich eine Spendenaktion für das Rainforest Action Network organisierte. Mit 27 half ich die letzten ungeschützten Mammutbäume in Kalifornien zu retten. Mit 30 setzte ich mich für erneuerbare Energien ein und half erfolgreich mit, die Obama Administration zu überzeugen, dafür 90 Milliarden Dollar zu investieren.

 […]Aber bis zum letzten Jahr vermied ich es meistens gegen die Klimaangst zu argumentieren. […] Ich schwieg über die Klima- Desinformations-Kampagne, weil ich fürchtete Freunde und finanzielle Unterstützung zu verlieren. Die wenigen Male, als ich den Mut aufbrachte die Klimawissenschaft gegen die zu verteidigen, die sie falsch darstellten, habe ich drastische Konsequenzen erfahren müssen. So stand ich meistens abseits und tat fast nichts als meine Umweltschützer -Kollegen die Öffentlichkeit in Schrecken versetzten.

Aber dann letztes Jahr gerieten die Dinge außer Kontrolle.

 Alexandria Ocasio-Cortez sagte: “ Die Welt wird in 12 Jahren untergehen, wenn wir uns nicht um den Klimawandel kümmern. Großbritanniens hochrangigste Umweltschutzorganisation (Autor: Extinction Rebellion) behauptetet „Der Klimawandel tötet Kinder“.

Der einflussreichste „grüne Journalist“ der Welt, Bill McKibben, bezeichnete den Klimawandel als die“ größte Herausforderung, der sich die Menschheit jemals gegenübersah“ und dass sie „ganze Zivilisationen auslöschen“ würde.

So habe ich mich entschlossen den Mund aufzumachen.

  […] In den 3 abschliessenden Kapiteln von „Apokalypse Nie“ lege ich die finanziellen, politischen und ideologische Motive offen. Umweltschutzorganisationen haben Hunderte von Millionen von Dollars von der fossilen Brennstoffwirtschaft angenommen.  Organisationen mit antihumanistischen Überzeugungen drängten die Weltbank aufzuhören die Armut zu bekämpfen and stattdessen Armut „nachhaltig“ zu gestalten.

[…]Wenn man einmal wahrnimmt, wie schlimm wir fehlinformiert wurden, oft von Leuten mit ungesunden und widerlichen Beweggründen, fällt es schwer sich nicht betrogen zu fühlen.

[…] ich hoffe Sie stimmen zu, dass es nach allem vielleicht nicht so seltsam ist, wie es scheinen könnte, dass ein langjähriger Klimaschützer, Progressiver und Klimaaktivist sich gezwungen fühlte sich gegen den Alarmismus auszusprechen.

Ich hoffe darüber hinaus, dass Sie meine Entschuldigung akzeptieren.“ 

Das Global Warming Policy Forum (GWPF) kommentiert

„Die Entscheidung von Forbes die „Klimaentschuldigung“ von Michael Shellenberger zu löschen war nicht das erste Mal, dass sie eine kritische Stimme in der Klimadebatte zensierten. Letztes Jahr taten Sie das Gleiche: Ein Interview mit Professor Nir Shaviv, einer der wissenschaftlichen Berater von GWPF wurde von Forbes entfernt.“

> weiter zu 3.0 Welche Einflussgrössen bestimmen das Klima der Erde ?