2. Der Klimawandel und Folgen für die Energiewende

2.1 Klimaprognosen und-ziele

2.1.1 IPCC –Prognosen

Mitte des 20. Jahrhunderts stellten Forscherinnen und Forscher vermehrt Anzeichen dafür fest, dass sich die Atmosphäre erwärmt und dass Aktivitäten des Menschen eine Ursache dafür sein könnten. Das Umweltprogramm der Vereinten Nationen (UNEP) und die Weltorganisation für Meteorologie (WMO) gründeten daraufhin 1988 den IPCC. Ziel war es zu klären, welche Gefährdung von der Erderwärmung ausgeht und ob gehandelt werden muss. (5)

So beschreibt die deutsche Koordinierungsstelle des IPCC (Intergovernmental Panel of Climate Change) seine Entstehung und Aufgaben

Dazu veröffentlicht er seit 1990 alle sechs bis sieben Jahre Sachstandsberichte, die IPCC Assessment Reports.

Die zentralen Aussagen der fünf Sachstandsberichte 1990, 1995, 2001, 2007 und 2013/14. sind in (6) wiedergegeben.

Das Umweltbundesamt, basierend auf dem Bericht 2007 fasst die zu erwartenden Klimaänderungen und die empfohlenen Maßnahmen zusammen (7) und schreibt wie folgt: 

„Zur Untersuchung denkbarer Entwicklungen des Klimas in der Zukunft werden Klimamodelle genutzt. Damit führen die Fachleute Simulationen auf der Basis unterschiedlicher Emissionsszenarien durch. Die Ergebnisse derartiger Simulationen […] ermöglichen Aussagen über eine Bandbreite möglicher künftiger Klimaänderungen.

Globale Klimaänderungen bis 2100

Der anthropogene Treibhauseffekt verursacht Veränderungen im Klimasystem. Deren Ausmaße und Auswirkungen für die Zukunft können nur durch Modellrechnungen nachgebildet werden, da vielfältige und komplexe Wechselwirkungen berücksichtigt werden müssen. Aus Szenarienrechnungen lassen sich folgende mögliche zu erwartende Klimaänderungen für das 21.  Jahrhundert ableiten (IPCC, 2007).

Bis zum Jahr 2100 wird von einem mittleren globalen Temperaturanstieg zwischen 1,8 (mit einer Schwankungsbreite von 1,1-2,9) und 4,0 (mit einer Schwankungsbreite von 2,4-6,4) Grad Celsius ausgegangen. […]

Werden die Treibhausgasemissionen nicht verringert, ist eine Erwärmung um 0,2 Grad Celsius pro Dekade für die nächsten 30 Jahre sehr wahrscheinlich. […]

Im Vergleich zum Zeitraum von 1980 bis 1999 wird bis zum Ende des 21.  Jahrhunderts von einem Anstieg des Meeresspiegels für ein niedrigeres Szenario zwischen 18 und 59 Zentimetern und für ein höheres Szenario zwischen 26 und 59 Zentimetern ausgegangen (IPCC, 2007). […] Insgesamt sind die Aussagen über die zu erwartende Entwicklung des Meeresspiegels noch immer sehr unsicher.

Ganze Kontinente und Meeresbecken weisen deutliche Klimaänderungen auf. Modelle zeigen, dass sich diese Trends auch im 21.  Jahrhundert fortsetzen.

  • Arktis: Die durchschnittlichen Temperaturen stiegen in den vergangenen 100 Jahren doppelt so schnell wie im globalen Durchschnitt.
  • Meereis: Satellitendaten zeigen seit 1978, dass die durchschnittliche jährliche Ausdehnung um 2,7 Prozent pro Jahrzehnt geschrumpft ist, im Sommer sogar um 7,4 Prozent.
  • Niederschläge: Von 1900 bis 2005 wurden in vielen Regionen langfristige Veränderungen beobachtet. Zunahme der Niederschläge  wie auch Austrocknung und Dürren.
  • Meteorologische Extremereignisse: Die Häufigkeit von Starkniederschlägen hat zugenommen. Kalte Tage und Nächte sowie Frost sind seltener und heiße Tage und Nächte sowie Hitzewellen sind häufiger geworden.  […]

Um eine gefährliche anthropogene Störung des Klimasystems zu verhindern, ist es erforderlich, die globale Temperaturerhöhung langfristig auf maximal zwei Grad Celsius über dem vorindustriellen Niveau zu begrenzen (8), wie beispielsweise der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) in seinem Sondergutachten zeigt (WBGU, 2003). Wissenschaftliche Ergebnisse ( IPCC, 2004 ) weisen darauf hin, dass dieses Temperaturlimit mit hinlänglich großer Sicherheit nur unterschritten werden könnte, falls es gelänge, die Treibhausgaskonzentration bei 400 ppm CO2-Äquivalenten zu stabilisieren. Um eine derartige Stabilisierung zu erreichen, ist es erforderlich, dass die globalen Emissionen noch höchstens etwa bis zum Zeitraum 2015 bis 2020 steigen dürfen, um dann bis 2050 auf unter die Hälfte des Niveaus von 1990 zu sinken […]

Damit diese Lasten fair verteilt werden, ist es notwendig, dass die Industrieländer ihre Treibhausgasemissionen um 80 Prozent bis 2050 gegenüber 1990 mindern.“

2.1.2 Pariser Abkommen und die 2-Grad-Grenze

Im deutschen Wikipedia steht zum 2°C –Klimaziel

https://de.wikipedia.org/wiki/Zwei-Grad-Ziel

„Das Zwei-Grad-Ziel beschreibt das Ziel der internationalen Klimapolitik, die globale Erwärmung auf weniger als zwei Grad Celsius bis zum Jahr 2100 gegenüber dem Niveau vor Beginn der Industrialisierung zu begrenzen.

Das Ziel ist eine politische Festsetzung, die auf Grundlage wissenschaftlicher Erkenntnisse über die wahrscheinlichen Folgen der globalen Erwärmung erfolgte. […]

(Für den Beginn der Industrialisierung wird häufig das Jahr 1850 gesetzt, Genaueres unter (8).)

Der Wissenschaftlichen Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) trug wesentlich dazu bei, dass die Zwei-Grad-Grenze in den politischen Prozess gelangte.“

In (9) wird die Plausibilitätsbetrachtung beschrieben, die die Festlegung des Klimaziels durch den WBGU erklärt. Dort steht u.a.:

“ So haben während mehrerer Jahrzehnte Intuitionen, Einwände und Einsichten dazu geführt, dass 2°C ein fokaler Punkt in der Klimadebatte geworden ist.“

Im Pariser Klimaschutzabkommen vom Dezember  2015 ist vereinbart den Anstieg der weltweiten Durchschnittstemperatur auf deutlich unter 2 °C gegenüber vorindustriellen Werten zu begrenzen, mit dem konkreten Ziel den Grenzwert   1,5 °C einzuhalten.

Der gegenüber 2° C niedere Grenzwert von 1.5° C wurde auf Initiative der kleinen Pazifik- Inselstaaten und einiger afrikanischer Länder in einem UNFCCC –Bericht im Mai 2015 vorgeschlagen. (https://unfccc.int/resource/docs/2015/sb/eng/inf01.pdf)

Auf die oben aufgeführten Prognosen des IPCC sowie auf Organisation und Arbeitsweise des Weltklimarats wird unter 2.6 noch näher eingegangen.

2.2 Die Energiewende: Energiebedarf, Kosten, Nutzen

2.2.1. Der totale Energiebedarf, erreichte Klimaziele 2018

Im Jahre 2018 lag in Deutschland der Anteil der erneuerbaren Energien an der Stromerzeugung bei fast 38 Prozent und damit im Plan. Das Ziel, 2030 etwa 50 % zu erreichen erscheint überschaubar, aber zur Erreichung des Ziels von 80%  in 2050 fehlen dann immer noch 30%. Bereits heute jedoch sorgen die bundesweit nahezu 30 000 Rotortürme für eine Belastung der Natur und der Bewohner, die sich in zunehmend schärferem Widerstand der Bevölkerung gegen neue Projekte niederschlägt (10).

Darüber hinaus  stellt die Stromenergie nur etwa 1/5 des deutschen Energiebedarfs dar (Umweltbundesamt). Um vor allem auch den Energiebedarf für die Wärmeerzeugung und den Verkehr zu decken hat Deutschland demnach nach Erreichen der Ziele der Stromökologisierung immer noch 4/5 des Weges zur Dekarbonisierung vor sich (10). Dies  macht einen Faktor von mehr als 10 um den die umweltfreundliche Energieerzeugung gegenüber heute (2018) erhöht werden muss.

Was den CO2 Ausstoß anlangt, stellt Umweltministerin Schulze 2018 fest, dass das für 2020 anvisierte Ziel von 40% Reduktion gegenüber 1990 mit voraussichtlich nur 32% nicht erreicht werden wird, begründet durch eine „unerwartet schnell wachsende Bevölkerung und Wirtschaft“ (11).

Die Union der deutschen Akademien schreibt in ihrer Stellungnahme „Sektorkopplung“ Optionen für die nächste Phase der Energiewende (2017) (12) :

„Ein kontinuierlicher, deutlicher Ausbau erneuerbarer Energien zur Stromerzeugung führt nicht dazu, dass auf eine Bereitstellung einer Reserveleistung in ähnlicher Höhe wie die Leistung des heutigen konventionellen Kraftwerksparks verzichtet werden kann, da die Stromerzeugung aus erneuerbaren Energien selbst bei Installation erheblicher Mengen an Kurzzeitspeichern nur eine sehr geringe gesicherte Erzeugungsleistung aufweist.“

Die Energiewende wird schwerpunktmäßig im nationalen Kontext betrachtet. Das heißt, nur das deutsche Energiesystem wird im Detail analysiert und auf der Zeitschiene optimiert. Es gibt jedoch theoretisch eine Option, mit der man eine umfassende europäische Energiewende im Stromsektor realisieren könnte, das europäische Supergrid. Es besteht aus sehr leistungsfähigen Übertragungsnetzen, die einen Austausch großer elektrischer Energiemengen mit Hilfe der Hochspannungs-Gleichstromübertragung (HGÜ-Technik) ermöglichen (13). Die Genehmigungsverfahren zum Bau dieser Stromautobahnen sowie die Einigung mit den Stromerzeugern aus Kohle-, Gas,-und Atomkraftwerken der europäischen Partnerländer werden jedoch mühsam und langwierig sein, d.h. die Abschaltung unrentabler Kraftwerke mit Energien durch Verbrennung fossiler Materialien (Kohle, Gas) wird möglicherweise nicht in dem zur Zeit geplanten Maße weitergehen (4) und  auch bei den Protagonisten der erneuerbaren Energien setzt sich die Überzeugung durch, dass noch längere Zeit konventionelle Kraftwerke, vorzugsweise  Gaskraftwerke beibehalten werden müssen.

2.2.2 Kosten der Stromökologisierung

Das Institut für Wettbewerbsökonomie an der Uni Düsseldorf (DICE Consult) hat in einem Gutachten die Kosten der Energiewende nur für den Strombereich berechnet (15).

• Das Ergebnis: Im Zeitraum zwischen den Jahren 2000 bis 2025 müssen geschätzt rund 520 Milliarden Euro aufgewendet werden.
• Eine vierköpfige Familie zahlt somit bis 2025 direkt und indirekt über 25.000 Euro für die Energiewende.

Soweit die voraussichtlichen Kosten zur Stromökologierung.

2.2.3 Sektorkopplung und Gesamtkosten

In (12) veröffentlichen die Deutsche Akademie der Technikwissenschaften , die Deutsche Akademie der Naturforscher Leopoldina  sowie die Union der deutschen Akademien der Wissenschaften , eine Studie   unter dem  Titel „Sektorkopplung: Untersuchungen und Überlegungen zur Entwicklung eines integrierten Energiesystems“. Die Studie berechnet die Kosten für verschiedene Szenarien einer weitgehenden Dekarbonisierung bis 2050 bei einer heutigen CO2 Emission in Deutschland von rund 900 Mio t .

Diese vom Bundesministerium für Bildung und Forschung  finanzierte Studie  betrachtet die Kosten der Ökologisierung ganzheitlich für alle Sektoren des Energiesystems, nämlich Strom, Verkehr und Wärme. Sie kommt zum Ergebnis, dass zukünftig nur eine  alle Sektoren übergreifende Herangehensweise eine Perspektive dafür bietet, die Energieversorgung insgesamt schrittweise auf überwiegend erneuerbare Energien umzustellen.

Rechnungen mit Hilfe eines Optimierungsmodells beschreiben technisch mögliche Entwicklungspfade für unterschiedliche Szenarien des Energiesystems. Die Optimierung zielt auf eine Minimierung der Kosten unter Berücksichtigung spezieller Randbedingungen ab.    

Szenarien des Energiesystems

Die untersuchten Szenarien unterscheiden sich einmal durch die auf der Horizontalen der untenstehenden Abb. angegebenen CO2- Reduktionen von 60%, 75%, 85% und 90%. Bei der freien Optimierung („offen“) wird die Technologiezusammensetzung  von  „Wind Offshore“, „Wind Onshore“, „Photovoltaik“ und flexiblen Kraftwerken  durch die Kostenminimierung bestimmt.

Bei einigen  -85% Szenarien sind zusätzliche Randbedingungen festgelegt, zum einen ein Energiesystem bei der Wasserstoff H2 eine besonders große Rolle spielt , zum anderen eine Entwicklung mit starkem Einsatz von regenerativ erzeugten Kraftstoffen für Verkehr und Wärme (Methan, flüssige Kraftstoffe) . Als flexible Kraftwerke kommen grundsätzlich sämtliche Techniken, die lagerbare chemische Energieträger verwenden in Betracht, von Blockheizkraftwerken in Gebäuden oder Wärmenetzen über Gasturbinen und Brennstoffzellen bis hin zu großen Gas- und Dampfkombikraftwerken. Als Brennstoff kommen fossile Energieträger, Biomasse oder synthetische Gase (Wasserstoff oder Methan), die aus Strom hergestellt und in Speichern gelagert werden, infrage

Bild1: Installierte Leistung an umweltfreundlichen Energien im Stromsektor 2050

Erwartungsgemäß steigt die installierte Leistung für erneuerbare Energien mit dem CO2 Reduktionsziel an. Während heute die installierte Leistung im Stromsektor bei weniger als 100 GW liegt (2018, Statista), erreicht sie 2050 bei den -85% -Szenarien Werte bis 500 GW.

Dabei ist der Anteil der  Windkraft bei etwa 250 GW, was etwa das 4-fache der heutigen Leistung ist (2018 etwa 60 GW)). Bemerkenswert der Anstieg der Photovoltaik-Energie  von heute (2018) 45 GW auf 250 GW , also mehr als das 5-fache.(Effizienzszenario s.u. unter Windkraftanlagen)

Reservekapazität: Die wegen des fluktuierenden Charakters von WK und PV benötigte Reservekapazität beträgt zwischen 60 und 100 Gigawatt. Heute sind etwa 100 Gigawatt an konventionellen Kraftwerken installiert. Das bedeutet, dass die benötigte Reservekapazität nicht abnimmt. Erdgas dürfte auch langfristig als flexibler, emissionsarmer Energieträger eine Rolle spielen

Speicher:  Neben Erneuerbare-Energie-Anlagen und Reservekraftwerken sind zunehmend Speicherkapazitäten erforderlich. Als Kurzzeitspeicher für Strom (für Stunden bis Tage) können vor allem Pumpspeicherkraftwerke und Batterien eingesetzt werden. Für die Langzeitspeicherung sollten mit Strom gut speicherbare Brenn- und Kraftstoffe wie Wasserstoff oder Methan erzeugt werden.

Gesamtkosten der Dekarbonisierung

Bild 2: Kumulative systemische Gesamtkosten bis zum Jahr 2050
für die verglichenen Systementwicklungen und ihre Zusammensetzung

Anhand der obigen Abbildung wird deutlich, dass sich die Kosten für die Entwicklung des  Energiesystems als Ganzes mit steigenden Reduktionszielen, bei sonst gleichen Randbedingungen, stark erhöhen. Eine Steigerung der Reduktion von -80 % auf -90% entspricht etwa einem Mehrkostenbetrag von etwa 1000 Milliarden €.

Die Kosten für das Referenzszenario belaufen sich auf etwa 4000 Milliarden €. Beim Referenzszenario werden bis 2030 die energiebedingten CO2-Emissionen um 40% verringert und bleiben in der Folgezeit konstant.

Die Emissionsminderung auf 85% kostet über 6000 Milliarden bei freier Kostenoptimierung und etwa 4500 Milliarden für das Einsparungs-und Effizienzsteigerungsszenario.

Nach dem Szenario der freien Kostenminimierung  fallen zum Erreichen des Klimaschutzziels von  -85 Prozent bis zum Jahr 2050 insgesamt Mehrkosten (in Bezug auf die Referenz) in Höhe von rund 2 Billionen Euro an, Dieser Wert entspricht im Mittel der nächsten 33 Jahre einem jährlichen Betrag von etwa 60 Milliarden Euro und somit knapp 2 Prozent des deutschen Bruttoinlandsprodukts von 2016.

Eine Studie des  Frauenhofer -Instituts für solare Energiesysteme (ESYS) (14) ergibt als kumulative Kosten 2015-2050 für verschiedene -80% CO2-Szenarien Kosten zwischen 5300 und 5800 Milliarden € und 4200 Milliarden € für das Referenzszenario (Fortschreibung der heutigen Systemzusammensetzung). Für ein -90% Szenario fallen Gesamtkosten von etwa 6500 Milliarden € an.

2.2.4 Der globale Nutzen der deutschen Dekarbonisierung

Der globale CO2-Emissionsanteil Deutschlands beträgt etwa 2,3 % in 2016, dagegen sind die 3 größten Kohlendioxid-Produzenten der Welt China, Indien und die USA für etwa 50% verantwortlich, bei einem jährliche Zuwachs von etwa 3% . Würde es Deutschland also gelingen seinen gesamten Ausstoß auf Null zurückzufahren, dann würde allein der jährliche Mehrausstoß dieser 3 größten CO2-Emittenten in etwas mehr als einem Jahr die deutschen Anstrengungen zunichtemachen.

Eine Abschätzung ergibt, dass wenn der deutsche CO2-Ausstoß auf Null gesetzt würde, die Auswirkung auf die globale Temperatur maximal nur etwa 0,01 Grad (20)(20a) betragen würde und somit in der Praxis nicht bemerkbar wäre .

Und der „Energiehunger“ wird rasant weiter steigen. In einer SPIEGELONLINE – Meldung vom 13. November 2007 heißt es:

„… Alle Welt redet vom Klimawandel, der CO2-Vermeidung und dem Energiesparen. Eine gestern in Rom vorgestellte Studie des Weltenergierates WEC zeigt, wie schwer der Kampf gegen die Erderwärmung noch werden dürfte. Denn der Energiebedarf der Menschheit steigt und steigt – und könnte sich bis 2050 verdoppeln. Der WEC-Prognose zufolge wird sich die globale Nachfrage nach Strom, Öl, Gas und Kohle um 70 bis 100 Prozent erhöhen.“

2.3 Erneuerbare Energien: Effizienz, Schäden an Natur und Gesundheit

 In den Kapiteln 2.2.2 und 2.2.3 wurden die Kosten der Energiewende im Bereich von 4-6 Billionen Euros abgeschätzt. Der folgende Abschnitt dient dazu die Gründe für diese immensen Kosten deutlich zu machen. Es werden kurz die physikalischen Größen „Leistungsdichte“ und „Energiedichte“ diskutiert. Sie liefern die technische  Erklärung für die gewaltigen Kosten der geplanten Strukturveränderungen und der notwendigen Investitionen, wie sie  für die  Windkraft, die Photovoltaik und die Elektromobilität erforderlich sind: Windräder  mit einer Höhe von mehr als 150 m, Rodungen von großen Waldflächen, große Flächen auf Dächern und in Naturlandschaften für Photovoltaik-Elemente, ausgedehnte engmaschige  Stromnetze oberhalb und unterhalb des Erdoberfläche  für die Ladeinfrastruktur von Elektroautos, Gelder für Forschung und Entwicklung der  Speichertechnologien, neu zu entwickelnde großtechnische Industrieverfahren für  die Entsorgung und das Recycling der Rotorblätter, Solarmodule und  Batterien.

Leistungsdichte und Kosten Infrastruktur,

Nach (21b) ist die Leistungsdichte S durch

S= P/A

definiert.

„P ist die Leistung in Watt, A die Fläche in m², d.h. S wird in der Einheit Watt /m² gemessen. Bei der Windturbine ist mit S die Leistung des Windes, geteilt durch die vom Propeller überstrichene Fläche bei senkrecht auftreffendem Wind gemeint. Bei der Photozelle ist es die Leistung der Sonne, geteilt durch die Solarzellenfläche bei senkrechtem Sonneneinfall. […]

Die Bedeutung einer hohen Leistungsdichte S wird aus A×S=P deutlich. Ist S klein, muss man die Fläche groß machen, damit das gewünschte Endprodukt P ausreichend hoch ausfällt. Dies erklärt warum Windradpropeller so riesig sind. Weil Wind nur eine extrem kleine Leistungsdichte aufweist ( Autor: nach Kapitel 6.1 von (21b) ist S  der sehr geringen Luftdichte proportional), ist eine -ebenso extrem- große, vom Propeller überstrichene Fläche bereitzustellen. […]

Bei der Fotozelle ist die Platte groß genug zu machen ( Autor: da auch hier die Leistungsdichte nur gering ist, wegen der geringen Leistungsdichte der auf die Erdoberfläche fallenden Sonnenstrahlung, siehe nachfolgende Tabelle).  . „High-Tech“ wird oft auch über die Leistungsdichte definiert. In diesem Sinne sind Wind- und Solarkraftwerke eindeutig „Low-Tech“. […]

 

 „ Ein Kohlekraftwerk hat eine 2000-fache höhere Stromleistungsdichte als ein WKA-Ungetüm (Autor: Windkraftanlage) in der windstarken Nordsee und sogar eine 25 000-fach höhere als die Solarplatten auf dem Hausdach Ihres Nachbarn (siehe Tabelle).

 

Aus den Vergleichen wird anschaulich, dass Wind und Sonne grundsätzlich extrem teurer sind als Kohle und Uran, denn wir können die Leistungsdichte von Wind und Sonne mit keiner Maßnahme erhöhen. […].

Der minimale Energieertrag und, als Folge davon, die extrem hohen Kosten der Photovoltaik sind mit der Begeisterung der Bevölkerung für diese Methode nicht vereinbar.“

2.3.1 Windkraftanlagen: Kapazität in Deutschland, Ausbaupläne

Bild : Windenergienutzung in Deutschland 2010-2016

In einer Studie über die Windkraft in Deutschland schreibt die die VGB Powertech (16)

„In der Abb sind relevante Kennzahlen für die Entwicklung der Windenergie in Deutschland im Zeitraum von 2010 bis 2016 dargestellt. Demnach hat sich die kumulierte installierte Nennleistung des deutschen Windparks von 26.903 MW am Jahresende 2010 bis zum Jahresende 2016 fast verdoppelt. Die Anzahl der Windenergieanlagen, jeweils zum Jahresende und gerundet, erhöhte sich zeitgleich von 21.600 auf 28.200 Aggregate.

Die durchschnittliche Nennleistung jeder neu zugebauten Onshore-Windenergieanlage lag im Jahr 2010 bei 2,0 MW. Bis zum Jahr 2016 erhöhte sich dieser Durchschnittswert auf 2,8MW (Offshore-Windenergie: 5,2MW pro Anlage). […]

Der arithmetische Mittelwert ist ein Maß für die jährlich bereitgestellte Energie und spiegelt die konstante Leistung wider, die ein Kraftwerk für diese Energie bei konstanter Fahrweise über ein Jahr erbringen müsste. […]

Das resultierende Verhältnis aus mittlerer Leistung zu potenzieller Leistung (Nennleistung) wird auch als Ausnutzung  bezeichnet. Die Ausnutzung ist dimensionslos und als Maß für die Anzahl der Jahresstunden zu verstehen, in denen der Windpark umgerechnet seine Nennleistung erbrachte. Multipliziert mit der Anzahl der Jahresstunden ergeben sich die Volllaststunden  des Windparks im betreffenden Jahr. […]

Von 2010 bis 2016 erreichte die Ausnutzung einen Durchschnittswert von rund 18%. […].

Hinsichtlich des Beitrags der Windenergie zur Versorgungssicherheit gibt insbesondere die Entwicklung der jährlichen Minima der Leistungszeitreihen gemäß Bild 3b  Aufschluss: Diese Werte liegen seit 2010 erstaunlicherweise auf unverändert niedrigem Niveau von durchschnittlich 100MW, obwohl sich die Nennleistung des deutschen Windparks zeitgleich fast verdoppelt hat. [,,,]

Offenbar hat sich die intuitive Erwartung, dass der Minimalwert bei einem Ausbau deutschlandweit verteilter Windenergieanlagenstandorte nach dem Motto „irgendwo weht immer Wind“ ansteigt und der Ausbau der Windenergienutzung in zunehmendem Maße eine Substitution konventioneller Kraftwerksleistung ermöglicht, nicht erfüllt. […]

Die permanent verfügbare (gesicherte) Leistung des deutschen Windparks lag damit immer deutlich unter einem Prozent seiner Nennleistung oder anders ausgedrückt: Im jedem Jahr gab es immer mindestens eine Viertelstunde, in der mehr als 99 % der Nennleistung des deutschen Windparks nicht verfügbar waren und praktisch ein Bedarf an 100% planbarer Backup-Leistung herrschte.[…]

Aus Sicht der Versorgungssicherheit hat die Windenergie in Deutschland damit bisher  (bis 2016)konventionelle Kraftwerksleistung von maximal 150MW ersetzt. Zum Vergleich: Für die Stabilität des Stromnetzes wird hierzulande zum Zeitpunkt der Jahreshöchstlast, die meist spätnachmittags an einem Tag im Zeitraum von November bis Februar auftreten kann und vorab unbekannt ist, eine Kraftwerkskapazität von etwa 77.000 bis 82.000MW benötigt.“

ESYS (12) stellt fest, dass  ein starker Zubau an Anlagen zur Stromerzeugung aus Sonne und Wind  unabdingbar ist. Sowohl gesellschaftliche Akzeptanzgründe als auch Aspekte der Flächennutzung und des Naturschutzes legen jedoch Systementwicklungen nahe, die diesen Ausbau so gering wie möglich halten

Um also die zu installierende Leistung zu begrenzen wurde in der ESYS Studie in einem weiteren Szenario (85_offen+Aktiv) für 2050 eine durch Einspar-und Effizienzmassnahmen erzielte  Stromnachfrage   von -25% gegenüber heute angenommen. Damit reduziert sich der Beitrag von  Windkraft und Photovoltaik, etwa im Verhältnis 50/50, auf 350 GW.

Nach der Studie des Frauenhoferinstituts (14)

beläuft sich die in 2050 installierte Leistung für die Windkraft auf Werte zwischen 190 und 220 GW (für die verschiedenen Szenarien) und 170 und 200 GW für die Fotovoltaik.

Gegenüber der heutigen Situation entspricht dies einer Vergrösserung der installierten Windkraft um das Dreifache und um das 4fache für die Photovoltaik..

Detlef Ahlborn (17) schätzt eine benötigte Installation von etwa 60 000 Windkraftanlagen ab, also gegenüber heute eine Verdopplung der bereits installierten Anlagen.

Wiesenvogelbrutgebiet Weenermoor, LK Leer. Quelle: https://www.wattenrat.de/

Die Windbranche versucht durch Windräder mit höherer Nennleistung die Zahl der benötigten Neuinstallationen zu reduzieren (18). Die neuesten Entwicklungen „Windkraft 4,0“ haben eine Rotordurchmesser von 170 m bei einer Nennleistung von 5,6  Megawatt. (Entwickler Vensys, Mutterkontern Goldwind , China)

Im deutschen Baugesetzbuch der wird ein Mindestabstand von 1000m zur Wohnbebauung festgeschrieben, es ist aber den Bundesländern überlassen diesen Abstand zu verringern. Um den Widerstand der Anwohner zu verringern sollen Anwohner und Kommunen mit „Windbürgergeld“ und finanzielle Windkraftbeteiligungen entschädigt werden (18a) .

Manfred Knake , Vertreter von  „Wattenrat“, einem lockeren Zusammenschluss von Naturschützern aus der Küstenregion Ostfrieslands, bezeichnet das Windbürgergeld als fragwürdiges Schweigegeld. Es geht den Projektierern der Windbranche nicht um das Klima sondern nur um das Abgreifen von mehr EEG-Subventionsgeld, das bereits heute mehr als 30 Milliarden Euro jährlich betrage (18a) (siehe auch Abschnitt 6.2)

Für längere Phasen mit nicht ausreichendem Strom aus PV und Wind – also Situationen, in denen auch alle Kurzzeitspeicher erschöpft sind („Dunkelflauten“) – ist eine große Back-up-Kapazität für die Stromerzeugung bereitzustellen.  Flexible thermische KWK-Anlagen  und Gaskraftwerke sind eine wichtige Säule der Versorgungssicherheit. Dabei nimmt diese benötigte Reservekapazität nicht ab.

2.3.1.1 Windkraft fördert Trockenheit und Erwärmung

 Klimaauswirkung.

Lee Miller schätzt die maximal für Windturbinen verfügbare globale Windleistung (ohne die eisbedeckten Regionen) auf 17-38 TW (172). Die Entnahme der Energie  durch die Windkraft beeinflusst das Klima, also Temperatur und Regen. Nach den Schätzungen des World Energy Councils (2013) beträgt in 2050 die benötigte globale Gesamtleistung  etwa 27 TW (pessimistisches Szenario) .

Forscher der Harvard Universität stellen in einer Studie (18b) fest, dass Windkraftanlagen durch die Veränderung der Durchmischung der Luftschichten in der Vertikalen die Umgebungstemperatur erhöhen.  Während eines Zeitraums von einigen Jahrzehnten  würde die durch die Politik der Umstellung auf Windenergie verursachte Temperaturerhöhung größer sein als der Nutzeffekt der dabei erzielten CO2 Einsparung.

Schon im Jahre 2004 haben S.Baidya Roy und Kollegen untersucht inwieweit Windparks das lokale Klima verändern können (139). Sie benutzten das Computerprogramm RAMS das die Atmosphäre für Klima – und  Wetterforschung modelliert. Das Windrad wird als Energiesenke und Luftturbulenzquelle dargestellt. Der betrachtete Windpark lag in den Great Plains östlich der Rocky Mountains unter dort üblichen Sommerwetterbedingungen. Die Resultate zeigten, dass der Windpark die Windstärke erheblich verringerte. Zusätzlich erzeugten die Turbulenzen Luftwirbel, die den vertikalen Austausch von Wärme und Energie verstärkten, was zu einer Erwärmung und Austrocknung der Luft über der Oberfläche und der Oberfläche selbst führt.

 Der Physiker Dr. Peter Adel untersucht zum einen wie die Windräder die feuchtigkeitsspenden Westwinde teilweise ausbremsen und zum anderen, dass die Gesamtheit der in Deutschland vorhandenen Windenergie nicht ausreicht um den Bedarf an erneuerbaren Strom nur annähernd zu decken (140).

Er erwähnt eine  Studie von 2011 die abschätzt, dass die weltweite Windenergienutzung auf dem Festland (ohne Polargebiete) maximal etwa 20 Terawatt bereitstellen kann. Umgerechnet auf den Flächenanteil Deutschlands ergibt sich daraus ein Wert von 55 Gigawatt.

Dürrenzunahme

Bei zunehmender Anlagendichte von Windrädern nehmen sich diese gegenseitig den Wind weg.  Mit dem Wind wird jedoch im großen Maßstab Feuch­tigkeit und Wärme auch über längere Strecken transportiert. Die Windnutzung aber bremst diesen Aus­tausch. Dementsprechend sollten sich mehr Dürren und Wetterextreme ergeben und der Windkraftausbau so genau die negativen Klimaveränderungen fördern, welche die Energie­wende eigentlich abwenden soll.

Im Jahre 2018 wurden in Deutschland im Durchschnitt 13 Gigawatt Windstrom erzeugt. Dies entspricht einem Viertel des deutschen Windkraftpotenzials von 55 Gigawatt. In Deutschland konzentriert sich zur Zeit der Ausbau der Windkraft auf Norddeutschland. Das lässt erwarten, dass die Windnutzung dort Wind und Wetter merklich beeinflussen. Entsprechende Veränderungen sind auch bereits messbar. In Osnabrück wurde seit den 60er Jahren ein Rückgang der mittleren Windgeschwindigkeit um 13 Prozent beobachtet.

Eine Studie aus China berichtet, dass gerade in den Gebieten mit intensiver Windkraftnutzung die Windgeschwindigkeit deutlich zurückgegangen ist.

In diesem Zusammenhang fällt auch  die  Übereinstimmung zwischen der regionalen Windkraftnutzung in Deutschland und der Dürrekarte (Juni 2019) auf, wenn auch für die Dürre nicht nur .( ScienceFiles Kritische Sozialwissenschaften JUNE 25, 2019. das lokale Wetter, sondern auch die Großwetterlage eine entscheidende Rolle spielen dürften.

Links: Dürrezustand Deutschland in einer Bodentiefe von 1,8m ( Dürremonitor des Helmholtz Zentrums für Umweltforschung),
Rechts: Deutschlandweite Verteilung von Windkraftanlagen (  Bundesamt für Naturschutz)

Grundsätzlich lässt aber ein gebremster Luftaustausch eine Abnahme der Niederschläge erwarten.

So behindert ein vorgelagertes Gebirge den Luftaustausch und sorgt dahinter tendenziell für ein kontinentales Klima. Ähnliches ist auch von der Windkraftnutzung zu erwarten.

Darüber hinaus erzeugen Windkraftanlagen Verwirbelungen in der Atmosphäre. Diese beeinflussen über viele Kilometer die Wolkenbildung und den Austausch zwischen den verschiede­nen Luftschichten. (Foto s. unten)

https://www.fotohits.de/news/artikel/die-natur-im-fokus-licher-fotopreis-mensch-und-natur-2011-vergeben/

Nun werden die Windströmungen auch von natürlichen Hindernissen gebremst und abgelenkt. So verändern nicht nur Gebirge, sondern auch Wälder, Gebäude oder Windschutzstreifen diese Strö­mungen.  Bei der Windenergienutzung wird im Gegensatz dazu dem Wind ein wesentlicher Teil seiner Energie direkt entzogen. Dadurch wird dem Wind weit mehr Energie entzogen als durch die Turbulenzen, die dabei ebenfalls entstehen.

Der oben diskutierte Abschattungseffekt von Windparks wird von Lundquist und Kollegen quantitativ untersucht (141) :

„Windräder bremsen den Wind und verwirbeln die Luft hinter den Rotoren. Genau wegen dieses Wake-Effekts werden einzelne Windräder ja in bestimmten Mindestabständen zueinander aufgestellt. Forscher aus den USA berichten nun in der kommenden Ausgabe von Nature Energy: Diese Zonen reichen weit und können den Ertrag von Parks auf der Leeseite des vorangehenden um bis zu fünf Prozent reduzieren. Das Team stützt sich auf den Vergleich von drei Windparks in Texas, von denen zwei nur wenige hundert Meter voneinander entfernt stehen, aber auch auf atmosphärische und wirtschaftliche Modelle. Der wake-Effekt kann bis zu 50 Kilometer weit reichen, offshore sogar noch weiter. Um unnötige Verluste oder Rechtsstreitigkeiten zu vermeiden, regen die Wissenschaftler an, generell Regeln für den Aufbau von Windparks aufzustellen, die den Einfluss anderer Parks in der Nähe berücksichtigen.

Hierzu die Stellungnahme des deutschen Klimaforschers  Prof. Stefan Emeis

Institut für Meteorologie und Klimaforschung (IMK-IFU), Karlsruher Institut für Technologie (KIT), Garmisch-Partenkirchen (142).

„Die Arbeit von Lundquist et al. ist korrekt und wichtig[…]

„Die Arbeit der US-Forscher geht einen wichtigen Schritt weiter als bisherige Arbeiten, in dem sie die wirtschaftliche Auswirkung von Nachläufen für Windparkbetreiber abschätzt, die im Schatten bestehender oder später errichteter Windparks arbeiten müssen. […]

„Die gefundenen finanziellen Einbußen können als Indiz für die Größe der Auswirkungen von Nachläufen auch für deutsche Windparks genommen werden. […]

„Die Existenz der Nachläufe von Windturbinen ist seit Jahrzehnten bekannt. Bei kleineren Windturbinen und Windparks an Land wurde ihr lange Zeit keine große Bedeutung zugemessen. Mit der in den letzten Jahren zunehmenden Größe der einzelnen Windturbinen (Multi-MW Anlagen) und größeren Windparks nimmt die Größe und Länge der Nachläufe zu und wird immer relevanter. Darauf habe ich bereits 2010 hingewiesen und ein einfaches Modell entwickelt, mit dem die Länge von Windpark-Nachläufen abgeschätzt werden kann [2]. Dieses Modell zeigt die Abhängigkeit der Länge von Nachläufen von Untergrundrauigkeit und thermischer Schichtung der Luft. Nachläufe von einigen zehn Kilometer Länge werden damit für Offshore-Windparks bei stabiler Schichtung vorhergesagt. Die Arbeitsgruppe von Frau Lundquist hat schon 2012 Simulationsergebnisse mit dem Strömungsmodell WRF vorgelegt, die teilweise noch längere Nachläufe zeigen [3].

Windkraftanlagen: Der Wind reicht nicht

Peter Adel schätzt die in Deutschland verfügbare Energie ab (140): „Eine durchschnittliche Erzeugung von 50 Gigawatt entspricht einer Jahreserzeugung von 400 Tera­wattstunden. Der gesamte Energieverbrauch in Deutschland beträgt jedoch 2020 etwa  2500 TWh und soll in Zukunft nach den Prognosen des BMWi sogar noch sinken. https://www.bmwi.de/Redaktion/DE/Publikationen/Wirtschaft/klimagutachten.pdf?__blob=publicationFile&v=8

Somit könnte die Windenergie selbst bei optimalem Ausbau davon höchstens 16 Prozent decken. […]. Mit zunehmender Nutzung wären dadurch zudem umfangreiche Speicher oder andere aufwändige Ausgleichsmaßnahmen für den Windstrom erforderlich.“

 Windkraft bremst Hurrikane

Die Entnahme von Windenergie durch Windturbinen wird von Forschern der Stanford Universität sogar als Möglichkeit zur Eindämmung von Hurrikanen in Betracht gezogen (143) (Übersetzung durch Autor). Bitte betrachten  Sie auch das Video von Kurt Hickman.

 „ Computersimulationen von Mark Jacobsen, Stanford University, zeigen, dass offshore Windparks die Windgeschwindigkeit und die Sturmfluten von großen Hurrikanen deutlich abschwächen können. […]

Die Forscher haben 3 Hurrikane simuliert: Sandy und Isaac, die im Jahre 2012 New York und New Orleans trafen, sowie Katrina, der im Jahre 2005 New Orleans verwüstete. […]

Im Fall von Katrina ergab Jacobson’s Modell,  , dass eine Anordnung von 78 000 Windrädern vor der Küste von New Orleans den Hurrikan wesentlich geschwächt hätte bevor er aufs Land traf.Im Computermodell, ergab sich im Fall Katrina, das im Augenblick, wo er aufs Land traf die Windgeschwindigkeit um 36-44 m/sec (zwischen 80 und 98 Meilen/Stunde) abgenommen hatte und die Sturmflutintensität um 79 %. […]

Ein (Autor: finanzieller Anreiz) ist die Verringerung der Schadenskosten .Schäden durch starke Hurrikane, verursacht durch Stürme und Sturmfluten, können sich auf Milliarden von Dollar belaufen. Hurrikan Sandy, zum Beispiel verursachteSchäden von  grob 82 Milliarden Dollar in 3 Staaten.

2.3.1.2 Windkraftanlagen: Zerstörung von Waldflächen, Flächenversiegelung

 Nach der Agora 2045-Studie beträgt die im Jahre 2045 benötigte Kapazität von Windkraft und Photovoltaik 600 GW. Für 2020 ist nach Angaben des Bundesumweltamts die installierte Kapazität 116 GW.

Bild: Installierte Erneuerbare Energien im Jahre 2045 gemäß der Agora Studie „Klimaneutrales Deutschland 2045“(136)

Betrachtet man nun die Windkraft für sich allein, so ist die in 2045 erforderliche Leistung 145 GW onshore. Heute, 2020, beträgt die installierte Leistung 55 GW onshore, konkretisiert durch 29 600 Windräder.

Bei einer mittleren Windradleistung wie die des heutigen Parks (2MW) bedeutet das zusätzlich 60 000 weitere Windräder.  Im Jahre 2018 lag die mittlere Leistung der installierten Rotoren etwas höher bei 3 MW, was die Zahl der noch zu errichtenden Turbinen reduzieren würde.

Was bedeuten das für die abgeschätzten Kapazitäten benötigte Naturflächen.

Der Flächenbedarf für ein Windrad in einem Windpark wird in (21b) mit 0,35 km2 angegeben( Fundament plus  die ergänzende Infrastruktur wie Stromtrassen oder Zufahrtswegen). Bereits heute belegen die existierenden 30 000 Windräder eine Fläche von etwa 10 000 km2. Bei einem Zuwachs von 60 000 Windrädern entsteht ein zusätzlicher Flächenbedarf von 21 000 km2. Die gesamte durch die Windräder verlorene Naturlandschaft entspricht ziemlich genau der Fläche Baden-Württembergs.

.Vorher weitgehend geschlossene Wälder werden dadurch zerstückelt, aus dem Ökosystem wird eine Art grünes Industriegebiet (18c).

Es ist sehr schwer Gewichtsdaten für die Windturbinen und die notwendigen Fundamente in  den von den Herstellern  zur Verfügung gestellten Informationen zu finden. Die  Webseite „Ruhrkultur“ (144) führt  über die Windmaschine E-126 der Firma Enercon folgende Werte auf:

„Die moderne E 126 erreicht eine Gesamthöhe von fast 200 Metern. Sie benötigt ein Fundament von 1.500 Kubikmetern Beton, der mit 180 Tonnen Stahl armiert ist. Auf dem runden Fundament, das 3.500 Tonnen wiegt, steht der Turm aus konischen Stahlbeton-Segmenten, der 2.800 Tonnen auf die Waage bringt. Das auf dem Turm sitzende Maschinenhaus mit Generator wiegt 340 Tonnen, die Nabe mit den Rotorflügeln aus glasfaserverstärktem Kunststoff noch einmal 320 Tonnen. Damit der Boden das Gesamtgewicht von über 7.000 Tonnen tragen kann, muss er zuvor mithilfe von Schottergranulat, das in 30 Meter tiefe Bohrlöcher gepresst wird, verdichtet werden.“

Das bedeutet, dass mit der Erstellung der zusätzlichen 60 00 Windräder eine Betonmasse von 3500t x 60 000= 210 Millionen t dauerhaft (siehe Recyling) in den Boden versenkt wird.

Bei einer CO2-Emission von 340 kg für die Herstellung von 1m3 Beton (2,5 t) (173) ist dies ein CO2-Gesamtausstoss von 30 Millionen t.

Quelle: http://windwahn.net/ein-windrad-steht-im-walde/

 

2.3.1.3 Windkraftanlagen: Artenschutz

 Die etwa 30 000 Windräder in Deutschland, die heute in Deutschland installiert sind, töten nach (18d) pro Jahr

250 000 Fledermäuse,  12 000 seltene Greifvögel und 1 200 t Insekten .

Eine  Studie  über die gesamten USA  (Auswertung 45 000 Turbinen) ergibt eine jährliche Kollisionsrate pro Windrad zwischen etwa 3  (Great Plains) und ca 8 (Kalifornien) Zusammenstößen (18e) . Überträgt man in grober Näherung einen Mittelwert von ca 5. Kollisionen pro Windrad auf  die 30 00 Windräder, die sich aktuell in Deutschland drehen , so erhält man ca 150 000 getötete Vögel pro Jahr.

Die weltweit bisher (2016) größte Studie zu Kollisionsrisiken von Vögeln mit Windrädern mit Schwerpunkt Schleswig-Holstein (Auftraggeber Bundeswirtschaftsministerium) stellt  allein  für das nördlichste  Bundesland mit etwa 3000 Windrädern jährlich 1600 tote Mäusebussarde durch Windkraftanlagen fest (18f)

Leben bedrohte Arten wie der Schwarzstorch oder verschiedene Greifvogelarten (roter Milan, Mäusebussard), im Umfeld eines geplanten Projekts, so müssen die Erzeuger entsprechende Abstände einhalten, oder ihre Pläne werden nicht genehmigt. Nach (18c) kommt es zu  illegalen Zerstörungen  von Großvogelhorsten in der Nähe von bestehenden und geplanten Windkraftanlagen.

Die Umweltministerkonferenz aus Bund und Ländern hat im Mai 2020 diskutiert wie die Hemmnisse des Ausbaus der Windkraft beseitigt werden können. Es wird u.a. ein Vorschlag erarbeitet ,wie genehmigungshemmende Abstände zu Vogellebensräumen verringert werden können (18g). 

2.3.1.4 Windkraftanlagen: Abbau, Recycling, Abrissfinanzierung

 Die FAZ berichtet (18h), dass das Umweltbundesamt (UBA) ab 2021 mit einem verstärkten Abriss der etwa  30 000 Anlagen rechnet. Die im Rahmen einer UBA Studie errechneten Abfallmengen sind extrem gross: 5,5 Millionen Tonnen Beton pro Jahr, vor allem wegen der Fundamente, müssen ausgegraben und beseitigt werden. Zudem fielen knapp eine Million Tonnen Stahl pro Jahr an , was grundsätzlich gut zu verarbeiten sein müsste. Anders sieht es aus bei den mit Kohlefasern verstärkten Rotorblättern. Die Recyclingbranche hatte hier mit dem Hinweis auf Sondermüll schon vor Jahren Alarm geschlagen. Laut Prognose für das UBA werden hier ab 2024 „relevante Mengen“ von bis zu 70.000 Tonnen pro Jahr anfallen. Sie seien nicht nur schwer zu verwerten, in ganz Deutschland gebe es auch nur eine einzige Verwertungsanlage für solche Abfälle. Auch Bloomberg  (18j) schreibt Anfang 2020 einen ausführlichen Artikel über die Schwierigkeiten den Restmüllverwertung der Rotorblätter mit den Dimensionen eines Flügels des Großraumfliegers 747/Jumbo Jet.

Die FAZ berichtet weiter, dass nach der Studie für den Rückbau der Windenergieanlagen eine große Finanzierungslücke zu erwarten ist. Die Betreiber könnten – obwohl seit 20 Jahren von den Stromkunden mit mehr als 100 Milliarden Euro subventioniert – nicht genügend Rückstellungen für den Rückbau gebildet haben.

Die fluktuierende Erzeugung erneuerbarer Energien kennt natürlich nicht nur Perioden mit nicht ausreichender Versorgung ,sondern auch Tage, in denen mehr Strom als in Deutschland benötigt produziert wird. In dieser Situation zahlt Deutschland an die ausländischen Abnehmer sog. Entsorgungsgebühren: Diese Entsorgungsgebühren zahlt der deutsche Steuerzahler, während sich der ausländische Verbraucher am kostengünstigen Überschussstrom erfreuen kann (19).

2.3.1.5 Stromnetze für die Energiewende

In vielen Artikeln und Veröffentlichungen über die Energiewende wird die Erzeugung der Erneuerbaren Energien behandelt aber nicht die tausend Kilometer Stromtrassen, die den grünen Strom zum Verbraucher bringen. Sehr klar ist eine Veröffentlichung des Ministeriums für Wirtschaft und Klimaschutz und die darin enthaltenen Links. Einige Zitate aus dem Text:

„So wird etwa der erneuerbare Strom aus Windenergie vorrangig im Norden und Osten sowie auf See erzeugt, wo der Wind besonders stark weht. Die größten Stromverbraucher – allen voran große Industriebetriebe – befinden sich aber im Süden und Westen Deutschlands. Der im Norden erzeugte „Windstrom“ muss also dorthin transportiert werden.

[…] Insgesamt müssen in den nächsten Jahren über 7.500 Kilometer im Übertragungsnetz optimiert, verstärkt oder neu gebaut werden. Eine besondere Rolle spielen hierbei die Höchstspannungs-Gleichstrom-Übertragungsleitungen (HGÜ-Leitungen), die sogenannten Stromautobahnen, wie SuedLink oder SuedOstLink. Auch der Ausbau der Verbindungen zu unseren europäischen Nachbarn wird immer wichtiger, denn die Energiewende ist zunehmend europäisch eingebettet. So können wir etwa Wasserkraft in Skandinavien und den Alpenländern mit Windkraft und Photovoltaik in Deutschland verbinden. Damit senken wir die Kosten der Energiewende.

Beim Strompreis ist dies  allerdings ein kostenerhöhender Faktor

2.3.2 Ärzte warnen vor Gesundheitsrisiko durch Windräder

2.3.2.1 BGR-Studie, kein Zusammenhang mit der Gesundheit. Lobbyvertreter ziehen die falschen Schlüsse

Überraschend wenig Beachtung hat in den Medien die gesundheitliche Gefährdung durch Windräder gefunden, vor der in zunehmendem Maß die Mediziner warnen.

Auf der Webseite „Welt“ schreibt Daniel Wetzel (145):

 „Nach einer fehlerhaften Berechnung des Schalldrucks von Windkraftanlagen durch das Bundesamt für Geowissenschaften und Rohstoffe (BGR) warnen Mediziner vor höheren Gesundheitsgefahren. „Offenbar ist Windkraft schon bei niedrigeren Schalldrucken gefährlicher als bisher angenommen“, sagte Christian-Friedrich Vahl, langjähriger Direktor der Klinik für Herz-, Thorax- und Gefäßchirurgie an der Universität Mainz gegenüber der „Welt am Sonntag.[…]

Das BGR hatte in der vergangenen Woche eingeräumt, die Schallemissionen von Windrädern nach einer Datenerhebung im Jahre 2004 zu hoch angegeben zu haben.“

Nach (146) bemerkte das BGR  : „Die Studie habe lediglich zum Ziel gehabt, eine mögliche Beeinträchtigung einer BGR-Messstelle zur Überwachung von weltweiten Atomwaffentests durch Windräder zu vermeiden. „Ein unsachgerechtes Einbringen dieses Sachverhaltes in andere Kontexte durch Interessensgruppen ist zu bedauern, jedoch seitens der BGR nicht zu verhindern“, so ein Sprecher. Bei der Studie gehe es ohnehin ausdrücklich nicht um Auswirkungen auf den menschlichen Organismus“.

Daniel Wetzel schreibt weiter:

„Lobbyvertreter forderten als Konsequenz von der Bundesregierung, den Mindestabstand zwischen Windrädern und Wohnbebauung noch weiter zu verringern. Die frühere Grünen-Chefin und Präsidentin des Bundesverbandes Erneuerbare Energie, Simone Peter, sah darin einen angeblichen Beleg für die gesundheitliche Unbedenklichkeit von Windkraftanlagen.

 Das Gegenteil sei jedoch der Fall, sagte Vahl, der als Leiter der Arbeitsgruppe Infraschall der Universitätsmedizin Mainz seit Jahren die Wirkung von Infraschall auf Zellgewebe und Organe erforscht: „Nach der BGR-Korrektur werden die Beschwerden der Betroffenen nicht mehr im Bereich von größer 90 Dezibel geäußert, sondern bereits im Bereich zwischen 60 bis 70 Dezibel. “ (siehe auch unten dBA nicht geeignet)

Weil Windkraftanlagen heute zudem sehr viel größer sind als im Untersuchungszeitraum 2004, sei es umso dringlicher, die gesundheitlichen Auswirkungen von Infraschall eingehend zu untersuchen, sagte Vahl. Die modernen, größeren Anlagen „emittieren einen erheblich höheren Schalldruck, außerdem verschiebt sich die Emission zu niedrigeren Frequenzen, die sehr wahrscheinlich ein höheres Gesundheitsrisiko bewirken.“ […]

 Die Korrektur der BGR ändert nicht die grundsätzlichen Stresswirkungen von Infraschall, die auf verschiedenen Ebenen des Organismus gefunden wurden“, sagte Vahl. Der Mediziner nannte beispielhaft „Wirkungen bei Membranstrukturen und der zellulären Kommunikation, im Gleichgewichtssystem und bei Aktivierung distinkter Gehirnbereiche im Unterbewusstsein.“

2.3.2.2 Definition von Infraschall

 Das Deutsche Ärzteblatt fasst die Definition des Infraschalls  und einige seiner wichtigen Eigenschaften zusammen  (147).

„Infraschall ist Schall unterhalb der Frequenz von 20 Hertz. Geräusche unter 20 Hertz nimmt das Ohr erst bei viel höheren Schalldruckpegeln wahr als den hörbaren Schall von 20 bis 20 0000 Hertz: Je tiefer die Frequenz, desto höher muss somit der Schalldruckpegel (quasi die Lautstärke) sein, damit das Hörorgan einen Sinneseindruck erhält. Bei 8 Hertz zum Beispiel muss der Schalldruckpegel bei 100 Dezibel liegen, damit die Wahrnehmungsschwelle erreicht ist. (26).

 Die großen Wellenlängen können zu Resonanzphänomen innerhalb und außerhalb von Häusern führen (2).

Die Unterschiede in der individuellen Hörschwelle sind im Infraschallbereich stärker ausgeprägt als im Bereich des hörbaren Schalls. Manche Menschen nehmen daher Infraschall bei hohem Schalldruckpegel als Brummen wahr, andere nicht. Niedrigfrequente Körpervibrationen können bei hohen Schalldruckpegeln gefühlt werden.

Aufgrund seiner großen Wellenlängen von Hunderten Kilometern wird Infraschall kaum von der Luft oder dem Boden gedämpft und auch nicht durch Hindernisse wie Felsen, Schutzwälle, Bäume oder Gebäude abgeschirmt – er breitet sich nahezu verlustfrei aus (27). Verdoppelt sich die Entfernung, so nimmt der Schallpegel um 6 Dezibel ab (siehe Grafik). So konnten Schallphänomene von einem Park mit 60 Windturbinen noch in 90 Kilometer Entfernung nachgewiesen werden (28).

In geräuscharmer Umgebung reagiert das Ohr sensitiver auf Infraschall. Ein ruhiges Zuhause kann so zum Problem werden, da der hörbare Schall der Windturbinen durch Mauern gedämpft wird, Infraschall dagegen nicht. Und wer mit dem Ohr auf dem Kissen schläft, blockiert auf dieser Seite den hörbaren Schall, aber nicht den Infraschall (29)“

2.3.2.3 Infraschall: Wie nimmt der Mensch den unhörbaren Schall wahr

Die Professoren der HNO Heilkunde der Washington Universität  in St. Louis  Alec N. Salt and Jeffery T. Lichtenhan veröffentlichen eine wissenschaftliche Arbeit über den Infraschall und untersuchen die Frage warum der niederfrequente Schall, obwohl man ihn nicht hören kann, trotzdem physiologisch wirkt (155).

 

 

 

Bild:Die Anatomie der Hörschnecke: Innere und äussere Haarzellen und Nervenfasern

 Die Hörschnecke im Innenohr ist mit inneren und äußeren Haarzellen ausgestattet. Die inneren Haarzellen vermitteln das Hören und sind unempfindlich für niederfrequenten Infraschall. Die äusseren Haarzellen dagegen sind in Kontakt mit der Tektorialmembran und sprechen auf niederfrequenten Schall und Infraschall an.

„ Wir haben beschrieben […]wie Infraschall und niederfrequenter -Schall Anlass für die Symptome sein können , über die  Personen berichten die in der Nähe von Windrädern leben. […] Ein Problembereich ist die Rolle die Akustik-Ingenieure  gespielt haben. Jahrlang haben sie sich hinter das Mantra zurückgezogen, das sich jetzt als falcch erweist, das sich in Aussagen widerspiegelt wie „ Was du nicht hören kannst, das kann Dir nicht schaden“, „ Infraschall von Windrädern ist unterhalb der Hörschwelle“ […]  „ Ich kann kategorisch erklären das die aktuelle Konstruktion  von Windrädern keine bedeutsamen Infraschall erzeugt“, Alle diese Feststellungen nehmen an , dass das Hören basierend auf den inneren Haarzellen der einzige Mechanismus ist wie der niederfrequent Schall den menschlichen Körper beeinflussen kann. Wir wissen , dass diese Annahme falsch ist und machen dafür die fehlende Kenntnis der Physiologie verantwortlich.“

Salt schreibt weiter daß die  dBA -gewichtete Schallmessung nicht akzeptabel  ist, da sie in grober Weise die Lärmeinwirkung auf das Innenohr falsch beurteilt. 

2.3.2.4 Die gesundheitlichen Probleme von Windrad- Anwohnern

Aus der Vielzahl der Meldungen über Klagen von Anwohnern von Windkraftanlagen über gesundheitliche Beeinträchtigungen und Verlust der Lebensqualität werden zwei Studien aus Kanada und Australien herausgegriffen. Sie erfassen quantitativ wie die betroffenen Personen ihre gesundheitlichen Probleme empfinden.

Kanada

Der erste Fragebogen war im Jahre 2009 an verschieden Orte der kanadischen Provinz  Ontario gesandt worden, wo Klagen über die Beeinträchtigung der  Gesundheit und der Lebensqualität durch angrenzende Windkraftanlagen laut geworden waren (148). Die verantwortliche Projekt WindVOiCe war gegründet worden, um den Bewohnern eine Möglichkeit zu geben ihre Probleme zu artikulieren, da individuelle  Beschwerden von Regierungsorganisationen und Industrie ignoriert worden waren. Hinsichtlich der Methodik unterstreichen die Autoren  die Bedeutung  von Fragebogen zur Selbstbeurteilung im Rahmen wissenschaftlicher  medizinischer Untersuchungen wie z.B. beim Brustkrebs-Monitoring als Ergänzung zur Mammografie. Die Auswertung dieser subjektiven Daten ergeben wertvolle Indikationen für epidemiologische Studien im grösseren Massstab, die leider kaum Existieren (dt Ärzteblatt)

Die nachfolgende Tabelle listet die verschiedenen Beschwerden der 102 Probanden der Ontario- Studie auf.

Dabei sind die Beschwerden in der ersten Spalte aufgeführt und ihre relative Häufigkeit wird nach dem Abstand der Wohnung vom Windrad in m in der obersten Spalte unterschieden.

Die Größe p der letzten Spalte gibt das Signifikanzniveau des Ergebnisses an. Ein Wert von 0.0778  beispielsweise bei „disturbed sleep“  bedeutet, dass  die Wahrscheinlichkeit das  Schlafstörungen bei allen Bewohnern in der Nähe von Windkraftanlagen auftreten, (1-p) also etwa 92 % beträgt.

In den Kommentaren findet man Personen bei denen die subjektiven Beschwerden so stark waren, dass Sie ihr Heim dauerhaft verlassen haben, manchmal mit finanziellen Problemen durch den Werteverlust ihres Hauses bzw durch die Notwendigkeit 2 Wohnungen zu finanzieren (Appendix E).

 Australien

Eine weitere sehr eingehende Untersuchung „Lärmemissionen von Windparks  und menschliche Wahrnehmung“ wurde 2014 von der australischen Regierung veranlasst (149).

Das Studienteam bestand aus Experten der Gebiete Akustik, Psychoakustik, Psychologie, Allgemeinmedizin, Statistik und Philosophie. Die Probanden waren Anwohner im Umkreis von 3500 m von von 2 Windparks, die ihre Situation im Hinblick auf ihre Schallbeeinträchtigung mit Hilfe genormter Fragebogen selbst beurteilten. Die 25 Teilnehmer wurden auf Grund von Gesundheitsbeschwerden rekrutiert, die im Rahmen von eidesstattlichen Erklärungen, Anhörungen oder durch Interviews im Rahmen der Studie  erfasst wurden. Die Studie umfasste Fragebögen zur Selbstbeurteilung durch die Versuchspersonen  hinsichtlich  ihrer gesundheitsbezogenen Lebensqualität (genormte Fragebogen HRQOL und SF-36), ihrer Lärmempfindlichkeit (genormter Fragebogen NoiSeQ) und ihrer Schlafqualität ( genormter Fragebogen PSQI) (Für die Details der Normen der Fragebögen siehe Wikipedia in Englisch)

Die multidisziplinäre Studiengruppe kommt zu dem Ergebnis, dass die Probanden der Studie durch die Windrad-Aktivität in ihrer Gesundheit beeinträchtigt sind. Unterschiedliche Personen können beim gleichen Lärmpegel, aufgrund unterschiedlicher Lärmempfindlichkeit, unterschiedliche Stressreaktionen zeigen.

In der Doktorarbeit von Claire Paller (150) ist die Abhängigkeit der Schwindelanfälle vom Abstand zur Windkraftanlage dargestellt. Dargestellt sind der Mittelwert sowie drunter und untere 95% Vertrauensbereich, Die Abhängigkeit ist statistisch signifikant mit P<0,001.

Die Personen, die in der Nähe von Windrädern wohnen, haben eine verminderte gesundheitsbezogene Lebensqualität auf Grund von Stress und Schlafstörungen und ihre Gesundheit kann durch die Lärmemissionen merklich und ernsthaft beeinträchtigt werden.

Auf Grundlage der Ergebnisse kann angenommen werden, dass für bestimmte Personen, wenn sie den durch Windräder erzeugten Lärmemissionen und Luftdruckschwankungen ausgesetzt sind, ein ernsthaftes Risiko für ihre Gesundheit besteht. Ernsthaftes Risiko für ihre Gesundheit bedeutet z. B.  dass die betroffene Person sich gezwungen fühlt ihren Wohnort zu wechseln, um den Lärmstress zu verringern. 

2.3.2.5 Das Vibroakustische Syndrom

Medizinische Veröffentlichungen zeigen, dass der Schall nicht nur über die Hörfunktion sondern auch über druckempfindlich Areale des ganzen Körpers auf den Menschen einwirkt.

 Umfassend wird die gesamte Problematik der Auswirkungen des Infraschalls auf die Gesundheit und der zur Bewertung angewandten Messungen von der Internistin Dr. Dagmar Schmucker erklärt: “Infraschall und Vibroakustisches Syndrom- Altbekannte Phänomene in neuem Zusammenhang!“ (151)

„Die Übertragung von Infraschall, Schall und tieffrequentem Schall erfolgt in der Luft als sogenannter (primärer) Luftschall. Bei Körperschall hingegen handelt es sich um meist tieffrequente Schwingungen (Vibrationen), die in festen Stoffen (z. B. Boden, Fundamente, Rohrleitungen, Wände) übertragen werden.[…]

Komplizierend zur alleinigen Auswirkung von Infraschall muss immer auch der durch Vibration entstehende Körperschall berücksichtigt werden.[…]

Eine Sonderform ist der Infraschall ausgelöst durch Windradanlagen, da diese gepulst sind. Die Pulsung entsteht durch das Vorbeistreifen des Windrades am Mast – dadurch werden große Luftdruckänderungen verursacht. An der Spitze eines Windradflügels entstehen Riesenkräfte durch die hohen Geschwindigkeiten, die bis zu 400 km/h betragen können. Diese Frequenzspitzen spielen bei der Wahrnehmung des Infraschalls eine große Rolle, da diese unerwartet auftreten. Auch Gehörlose können Infraschall wahrnehmen, gerade hier findet die Wahrnehmung über den Körper statt (z. B. Bässe in der Disco)“

Schmucker bezeichnet die TA Lärm zur Bestimmung des zu beurteilenden Schalldruckpegels als veraltet, da die  empfohlene dB A -Bewertung die tiefen Schallfrequenzen wegfiltert.

 Die Organe und Skelettteile des menschlichen Körpers besitzen bestimmte Eigenfrequenzen , die durch den tieffrequenten Infraschall zu erzwungenen Schwingungen angeregt werden und zum Auftreten  von gesundheitsgefährdenden  Resonanzphänomenen (Vibroakustisches Syndrom) führen können   

„Die Analyse des menschlichen Körpers als mechanisches System zeigt, dass er als relativ kompliziertes System von Masse-Feder-Teilsystemen interpretiert werden kann. Jedes Teilsystem hat seine eigene Resonanzfrequenz und die Wechselwirkung zwischen den Teilsystemen hängt zusätzlich von der Körperhaltung ab (sitzen, liegen, ETC). Die Schulterpartie hat eine Eigenfrequenz von 4 – 5 Hz, der Unterbauch von 4 – 8 Hz.

 Legt sich jetzt ein Mensch in ein durch Körperschall niedrigfrequent schwingendes Bett, so tritt ein Resonanzphänomen auf und diese Körperteile schwingen mit. Dieses Mitschwingen ist nur durch Aufwendung von Muskelspannung unterbrechbar, was nicht schlafförderlich ist.“

 Zum Thema der Körpervibrationen und der Resonanz mit Infraschall schreibt der Biopsychologe Michael Persinger (152) dass die Frequenzen des Infraschalls mit dem menschlichen Körper in Resonanz treten können, Der Grund ist, dass die Eigenfrequenzen des menschlichen Körpers und seiner Organe im Bereich des niederfrquenten und Infraschalls liegen. Es lassen sich Korrelationen zwischen Infraschall und Beschwerden wie Übelkeit, Müdigkeit, unklaren Schmerzzuständen und Schlafstörungen feststellen.

Die Amplituden der Mikrovibrationen des menschlichen Körpers liegen zwischen 1-5  µm, bei angespannter Muskulatur sogar bis zu 50 µm. Zum Vergleich sind die Auslenkungen des Trommelfells bei 1kHz und 90 dB Schalldruckpegel nur 0,3 µm.

Bei Resonanz zwischen dem menschlichen Körper und dem Infraschall ist weniger die Stärke des Schallstimulus als seine Frequenz entscheidend.

Die Frequenz zwischen 1 und 4 Hz ist die Frequenz der Deltawellen des menschlichen Gehirns (im Elektroenzephalogramm) hängt mit der Tiefschlafphase zusammen. Störungen dieser Schlafphase können die Hormonausschüttungen und das Gleichgewicht der Organfunktionen (Homöostase) beeinträchtigen.

Persinger weist auf die starke Unterschätzung des Schalldrucks von Windrädern hin und verweist auf eine Studie von Salt und Kaltenbach (2011) hin, wo in einem Beispiel für 10 Hz bei einer Windturbine ein unbewerteter Schalldruck von 60 dB gemessen wurde dagegen A-bewertet (s. unten Schallbewertung) keine Schalldruckpegel gemessen wurd ).

Die Empfindlichkeit auf Infraschall innerhalb der Personengesamtheit ist stark unterschiedlich. 

2.3.2.6 Infraschall: Veränderung von Herz- und Hirnfunktion

 Mit zunehmender Zahl der akustischen und medizinischen Untersuchungen der gesundheitlichen Wirkung des Infraschalls und des Infraschalls im Zusammenhang mit Windrädern haben  sich auch die  Medien mit diesem  Aspekt befasst.

Während Robert W. Endlich ( Vibro-Acoustic-Disease, A Story About VAD, Infrasound Effects (casf.me)

die Etappen der Erforschung des Vibroakustischen Syndroms an Hand von Fallbeispielen in verschiedenen Ländern der Welt beschreibt (153), stellt Sherri Lange auf dem Internetforum „Free-Market Energy “ spezielle medizinisch-wissenschaftliche Veröffentlichungen zum Thema Gesundheit und Infraschall zusammen (154).

Unter dem Titel“ „Infrasound: A Growing Liability for Wind Power“ also „Infraschall , eine zunehmende Verantwortung der Windenergie“ wird zuerst  ein Video  interview mit einigen prominenten medizinischen Fachleuten zu diesem Thema aufgeführt.

Im weiteren Text des Sherri Lange Artikels werden wissenschaftlich Veröffentlichungen, die sich mit dem Infraschall befassen, vorgestellt. 

Einwirkung auf den Herzmuskel

Eine Ende 2021 erschienene  Veröffentlichung Taiwanesischer Wissenschaftler

„Effects of low-frequency noise from wind turbines on heart rate variability in healthy individuals“

untersucht den Einfluss tieffrequenten Schalls von Windrädern auf die Herzfrequenzvariabilität (heart rate variability). Die Studie stellt eine anomale  Reduzierung der Standardabweichung in den R-R- Abständen ((Herzfrequenzvariabilität) der Elektrokardiodiagramme  der Versuchspersonen fest.

Die Herzfrequenzvariabilität ist ein physiologisches Phänomen der Schwankung des Zeitintervalls zwischen zwei aufeinanderfolgenden Herzschlägen in Millisekunden.

Im EKG ist es die Schwankung des R-R- Intervalls im QRS- Komplex

Fig. 1  Ein EKG zeigt eine Serie von QRS- Komplexen . Die Zeit zwischen den Herzschlägen (R-R- Intervall) schwankt naturgemäß von Schlag zu Schlag.

Die  HRV nimmt naturgemäß während Stresssituationen ab . So ist die HRV typischerweise höher, wenn das Herz langsam schlägt und niedriger, wenn das Herz schneller schlägt, zum Beispiel bei Stress oder körperlicher Anstrengung.

Eine hohe HRV wird generell als Zeichen eines gesunden Herzens betrachtet und eine höhere HRV ist in vielen Studien mit einer geringeren Krankheitsanfälligkeit und Sterblichkeitsrate sowie erhöhtem psychologischen Wohlbefinden und höherer Lebensqualität verknüpft.

Diese Studie bestätigt die Untersuchungen von Professor Vahl zum schädlichen Einfluss des Infraschalls von Windkraftanlagen auf den menschlichen Myokardmuskel ( Studie 1 , Studie 2 )

Diese Untersuchungen wurden bereits im  Abschnitt „Lobbyvertreter und Medien ziehen die falschen Schlüsse“ angesprochen. “Ob  wir es hören oder nicht, jede Form der Energie hat physikalische Auswirkungen und Infraschall ist besonders gefährlich, weil wir ihn nicht hören.“

„Schlaflosigkeit, Herzprobleme, Wahrnehmungsstörungen, Schwindelanfälle  sind nur ein Teil der Krankheitssymptome, die durch Infraschall verursacht werden können.“

 Infraschall beeinflusst die Hirnströme

 Die Studie von Markus Weichenberger und Kollegen „Altered cortical and subcortical connectivity due to infrasound administered near the hearing threshold – Evidence from fMRI“ untersucht die Hirnaktivität bei Einwirkung von Infraschall mit Hilfe von Magnetresonanztomografie (157).

Die Wissenschaftler resümieren, dass längere Exposition mit Infraschall in der Nähe der individuellen Hörschwelle zu einer stärkeren funktionellen Konnektivität  von verschiedenen Gehirnarealen führt, wie mit Hilfe der funktionellen Magnetresonanztomografie gezeigt werden kann. Die Studie zeigt nicht nur, dass Infraschall physiologische Wirkungen hat, sondern dass Gehirnbereiche aktiviert werden, die nicht nur für den Gehörvorgang sondern auch für die emotionale Steuerung und das vegetative Nervensystem zuständig sind. Die Ergebnisse legen somit nahe, dass unter der Hörschwelle liegender Infraschall, Anlass für eine Reihe von physiologischen und psychologischen Gesundheitsproblem führen kann, die bisher nur oberflächlich mit dem niederfrequenten und dem stark niederfrequenten Spektrum in Verbindung gebracht wurden.

Definition von funktioneller Konnektivität

https://www.innovations-report.de/fachgebiete/biowissenschaften-chemie/autismus-hirnaktivitaeten-als-biomarker/

Verändert sich die Aktivität der Nervenzellen in zwei oder mehreren Hirnregionen zeitlich synchron, gehen Wissenschaftler davon aus, dass sie Netzwerke bilden und miteinander kommunizieren. Sie sprechen dann von einer funktionellen Konnektivität, die sie mittels funktioneller Magnetresonanztomografie (fMRT) auch bildlich erfassen können 

UBA- Studie

Dagegen schliesst eine Experimentalstudie des Umweltbundesamts:

„Infraschall um oder unter der Wahrnehmungsschwelle führt nicht zu unmittelbaren körperlichen Reaktionen zeigt aber Belästigungswirkung“

Die Experimentalstudie wurde unter weitreichend kontrollierten Bedingungen auf einem ehemaligen Kasernengelände bei Flensburg durchgeführt. Insgesamt 44 Personen wurden innerhalb von circa acht Stunden mit vier unterschiedlichen Infraschallgeräuschen beschallt. Die Beschallungsdauer betrug je 30 Minuten. Während und nach der Beschallung wurden die physiologischen Parameter Herzfrequenz, Blutdruck, Hirnrinden-Aktivität und Gleichgewichtswahrnehmung gemessen. Dabei konnten keine statistisch signifikanten Veränderungen festgestellt werden, die auf Infraschall zurückzuführen waren.    […]

Allerdings wurde die Studie als Experimentaluntersuchung mit einer geringen Anzahl von Versuchspersonen und einem vergleichsweise kurzen Beschallungszeitraum mit synthetischen reinen Infraschallsignalen durchgeführt. Daher können die Forschungsergebnisse nicht generalisiert und daraus keine möglichen langfristigen gesundheitlichen Auswirkungen von Infraschallimmissionen im Wohnumfeld abgeleitet werden. Um mögliche bislang nicht bekannte Langzeiteffekte zu identifizieren, bedarf es einer epidemiologischen Langzeitstudie im Wohnumfeld. Das Umweltbundesamt beabsichtigt daher, im kommenden Jahr ein vorbereitendes Forschungsvorhaben zu diesem Thema durchzuführen.“

Zu dieser letztgenannten Studie des UBA konnten auf dem Internet keine Informationen gefunden werden.

Infraschall, getestet für Waffenentwicklung

In dem Artikel von Sherri Lange  wird erwähnt, dass im allgemeinen 10 bis 30% der Personen Beschwerden durch Infraschall angeben. John B. Alexander, der in der Zeit des kalten Krieges in der US army für die „Entwicklung unorthodoxer Waffen“ verantwortlich war, berichtete, dass Infraschall bei einigen Personen Übelkeit, Schwindel Unfähigkeit klar zu denken auslöste, andere Personen davon aber nicht betroffen waren, so dass diese Waffenentwicklung eingestellt wurde.

2.3.2.7 Der Nocebo Effekt und die Windkraftindustrie 

Das deutsche Ärzteblatt erörtert die Problematik der Windkraftanwohner (147)

„Ob nun hörbar oder nicht – Anwohner in der Nähe von WEA machen Infraschall für zahlreiche gesundheitliche Probleme verantwortlich: Erschöpfung, Schlaflosigkeit, Kopfschmerzen, Atemnot, Depressionen, Rhythmusstörungen, Übelkeit, Tinnitus, Schwindel, Ohrenschmerzen, Seh- und Hörstörungen und etliche andere. Aber die Ergebnisse sind höchst inkonsistent. So zeigen zum Beispiel polysomnografische Untersuchungen zum Schlafverhalten, dass sowohl hörbare als auch nicht hörbare Schallphänomene im Umfeld von Windrädern keine nennenswerten Auswirkungen auf das Schlafverhalten haben (6). Die ebenso unspezifischen wie zahlreichen Beschwerden gaben von Anfang an Anlass zur Skepsis. Das Team um den klinischen Psychologen Prof. Dr. Keith J. Petrie von der Universität Auckland in Neuseeland hat die Frage untersucht, ob die Psyche angesichts eines Windrades in der Nachbarschaft das Krankheitsempfinden triggert.

Nocebo-getriggerte Symptome

Petrie kann zeigen, dass Negativ-informationen über Windräder ungute Erwartungen triggern und dies eher Symptome verursacht als der Infraschall selbst: 2009 erschien das Buch „Wind Turbine Syndrome – A natural Experiment“ in Australien, das Infraschall von Windturbinen für eine Reihe von Störungen verantwortlich macht. In Petries Studie wurden die Lärmbeschwerden über 51 Windkraftanlagen in Australien aus 2 unterschiedlichen Zeiträumen miteinander verglichen: Einmal aus 1993–2008 vor Erscheinen des Buches, einmal von 2009–2013 danach. 90 % derjenigen, die sich beschwerten, taten dies ab 2009 (7).

Die Arbeitsgruppe um Petrie hat in weiteren Studien mit Placebo-Infraschall die durch negative Erwartungshaltung beeinflussten Symptome untersucht und Nocebo-Effekte belegt (8, 9).

Allerdings erklärt die Psyche die Beschwerden vermutlich nicht allein. Immer öfter zeigen Beobachtungen an den unterschiedlichsten Organen, dass es messbare Effekte von Infraschall gibt. Vergleichsweise gut untersucht wurde die Frage, ob Schall unterhalb der Hörschwelle Auswirkungen auf das Innenohr hat. Die Studien von Prof. Dr. Alec Salt von der Washington University School of Medicine in St. Louis zeigen, dass die äußeren Haarzellen der Cochlea direkt auf Veränderungen der Tektorialmembran im Innenohr reagieren, da sie mechanisch gekoppelt sind. Die äußeren Haarzellen können somit durch sehr tiefe Frequenzen angeregt werden. Anders ist es bei den inneren Haarzellen, deren Bewegung über Flüssigkeit vermittelt wird (10). Da aber die äußeren Haarzellen die Perzeptionsschwelle der inneren Haarzellen modulieren können, ist ein mittelbarer Effekt von Infraschall auf das Hören zumindest denkbar.

Parallelen zur Seekrankheit

Unter bestimmten Bedingungen, etwa beim endolymphatischen Hydrops im Innenohr (Morbus Menière), nach Barotrauma oder einem vergrößerten vestibulären Aquädukt könnte das Ohr empfindlicher auf Infraschall reagieren. Das liefert dem kanadischen Otolaryngologen Robert V. Harrison von der Universität Toronto eine Erklärung für das „Wind Turbine Syndrome“ (11). Dieses ist durch Symptome wie Schwindel, Übelkeit und Nystagmus gekennzeichnet.

Harrison erläutert, wie bei ansonsten symptomlosen Menschen Anomalien im Gleichgewichtsorgan, die sich als eine Dehiszenz im superioren (semizirkularen) Vestibularkanal im CT zeigen, Infraschall ebenfalls zu diesen Beschwerden führen könnte. Er sieht darin eine Erklärung für die Tatsache, dass manche Anwohner von WEA die Symptome aufweisen, andere jedoch nicht. Ähnlich sei es bei der Seekrankheit, deren Symptome denen des „Wind Turbine Syndrome“ auffallend ähneln: Auch hier gibt es eine Suszeptibilität bei nur 5 bis 10 % der Bevölkerung, die mit starken Symptomen reagieren (12).“ 

Überblick über einschlägige Studien durch  Loren Knopper

Knopper und Ollson untersuchen  die Vielzahl der existierenden Studien zu eventuellen gesundheitlichen Schäden durch Windräder und fassen ihre Untersuchungsergebnisse zusammen (158):

„[…] in  „peer reviewed (begutachteten)“ Studien existiert ein statistischer Zusammenhang der Belästigung durch Windräder mit dem Windradlärm, aber der Zusammenhang ist noch stärker durch den visuellen Eindruck , der Einstellung zu Windrädern und der allgemeinen Lärmempfindlichkeit bedingt. Bis heute beweist kein „peer rewiewter“ Artikel einen direkten kausalen Zusammenhang zwischen gesundheitlichen Problemen von Personen  in der Nähe von modernen Windrädern und dem von diesen erzeugten Lärm . Wenn überhaupt können selbst-dokumentierte Gesundheitsproblem, wahrscheinlich verschiedenen Umweltstressoren zugeschrieben werden, die bei einem Teil der Bevölkerung einen Zustand von Belästigung und Stress erzeugen. In der populärwissenschaftlichen Literatur hängen selbst-dokumentierte Gesundheitsprobleme von der Entfernung von den Turbinen ab und es wird behauptet, dass der Infraschall der ursächliche Parameter für die berichteten Problem sei, auch wenn der Schalldruck nicht genmessen wurde.“ 

Am Ende steht unter „Konkurrierende Interessen“

„In Bezug auf konkurrierende Interessen, finanziell und nicht finanziell, arbeiten die Autoren für eine Consulting-Firma und haben mit Windenergiefirmen zusammengearbeitet.“

2.3.2.8 Windkraft: Der Nocebo-Effekt und die Tierwelt.

 Unter dem Titel Macht der Infraschall von Windkraftanlagen krank?

untersucht Daniel Wetzel die Diskussion der schädlichen Wirkung der Windkraft in Dänemark. (159)

 In Wikipedia findet man zur Bedeutung Dänemarks für die Entwicklung der Windkraft:

„Dänemark war u. a. aufgrund seiner durch die geographische Lage des Landes bedingten guten Windbedingungen sowie der Tradition der Windenergienutzung, auf die in den 1970er Jahren institutionell wie technologisch aufgebaut werden konnte, der Pionier in der Entwicklung der modernen Windkrafttechnik (siehe auch Geschichte der Windenergienutzung). Von Dänemark aus verbreitete sich die Windenergienutzung ab den 1970er Jahren weltweit.“

 Daniel Wetzel schreibt:

„Wie nahe dürfen Windkraftanlagen an bewohnte Ortschaften heranrücken? Berichte über gesundheitsschädliche Schallemissionen von Windkraftanlagen haben in Dänemark schon zu einer dramatischen Verlangsamung des Ausbautempos geführt

Aus Angst vor Gesundheitsschäden durch Infraschall werden in Dänemark kaum noch Windenergie-Anlagen gebaut. Eine staatliche Untersuchung läuft. Deutsche Behörden spielen das Problem noch herunter.

Beim ersten Test begannen die Tiere zu schreien. „Sie tobten mit einem schrillen Kreischen in ihren Käfigen und begannen sich gegenseitig zu beißen“, sagt Kaj Bank Olesen, Nerzzüchter in Vildbjerg, Dänemark.

Als seine Tierärztin im Morgengrauen die Polizei in der Gemeinde Herning anrief, um die neuen Windkraftanlagen hinter Olesens Bauernhof abschalten zu lassen, lag schon ein halbes Dutzend Tiere tot in den Käfigen. Mehr als 100 hatten sich gegenseitig so tiefe Wunden zugefügt, dass sie getötet werden mussten. […]

Plötzlich ist Flaute im Staate Dänemark

Das Schicksal des jütländischen Nerzzüchters machte landesweit Schlagzeilen und beschäftigte sogar das Parlament in Kopenhagen. Und seitdem hat die Energiewende ein Problem, wie Jan Hylleberg eingesteht, der Vorstandschef des Verbandes der dänischen Windindustrie: „Ein Großteil der dänischen Kommunen hat die Pläne für neue Windparks auf Eis gelegt, bis die staatliche Untersuchung über die Gesundheitsprobleme durch Infraschall abgeschlossen ist.“[…]

Das kleine Nachbarland ist mit einem Anteil von 40 Prozent am Stromverbrauch weltweit führend bei der Windstromerzeugung. […]

In dem 5,6-Millionen-Einwohner-Staat sind allerdings inzwischen mehr als 200 Bürgerinitiativen gegen Windparks aktiv. Und das liegt nicht nur an den europaweit höchsten Strompreisen. […]

 Staudengärtner Boye Jensen (67) musste seinen Betrieb aufgeben. Seine Arbeiterinnen klagten über gravierende gesundheitliche Probleme, seitdem unmittelbar neben dem Betrieb Windkraftanlagen errichtet wurden

Zwei Wochen später litt Jensen nach eigener Aussage an Schlaflosigkeit. Nachts fühlte er ein „Vibrieren im Brustkorb“, sagt er. „Ich war schon direkt nach dem Aufstehen erschöpft.“ Doch Jensens eigentlicher Albtraum begann erst einige Monate später, als ihm mehrere seiner Gärtnerinnen sagten, dass sie unter Kopfschmerzen und Menstruationsproblemen litten. […]

Das World Council for Nature, eine internationale Organisation, die Windkraft aus Naturschutzgründen ablehnt, warf der dänischen Regierung in einem offenen Brief vor, die wachsende Zahl der Belege für die Existenz eines „Windturbinen-Syndroms“ zu ignorieren.

All das löste in Jensens Staudengärtnerei Panik aus. Fünf Angestellte kündigten ihren Job fristlos. Doch die Banken akzeptierten den Plan nicht und kündigen die Kreditlinien. Jensen musste Insolvenz anmelden. […]

Weil die Zahl der Anti-Windkraft-Gruppen rasch zunahm, gab die Regierung Ende 2013 eine Studie über mögliche Gesundheitsgefahren von Windkraftanlagen in Auftrag. […]

Der Windkraftgegner als eingebildeter Kranker: Auch deutsche Behörden neigen zu dieser Sichtweise, weil die Beweise für die Existenz von Windkraft-Krankheiten bislang dünn waren. […]

Fazit der baden-württembergischen Behörden: „Ein Windturbinen-Syndrom gibt es nicht.“

Auch die Bayerischen Landesämter für Umwelt, Gesundheit und Lebensmittelsicherheit erklären die Unbedenklichkeit von tieffrequentem Schall: „Die von Windenergieanlagen erzeugten Infraschallpegel in üblichen Abständen zur Wohnbebauung liegen deutlich unterhalb der Hör- und Wahrnehmungsgrenzen“, heißt es dort. […]

Was man nicht hört, kann nach Einschätzung der Beamten auch nicht schädlich sein. […]

Auch Untersuchungen der Ludwig-Maximilians-Universität München widersprechen den bayerischen Aufsichtsämtern: „Die Annahme, tiefe Töne würden vom Ohr nicht verarbeitet, weil sie nicht oder schwer hörbar sind, ist falsch“, sagt der Neurobiologe Markus Drexl: „Das Ohr reagiert sehr wohl auch auf sehr tieffrequente Töne.“ […]

 Emissionen von Windkraftanlagen werden nach der „Technischen Anleitung zum Schutz gegen Lärm“ (TA Lärm) gemessen. Nach dieser Vorschrift findet die Messung aber stets nur im Freien statt. Ungenügend, finden Akustiker: Denn Innenräume verstärken die Wirkung von tiefen Frequenzen oft noch. Baukörper schirmen gerade gegen Schwingungen unterhalb von 100 Hertz schlecht ab, durch große Fenster können sie fast ungehindert eindringen.

Frustrierende Erfahrungen

Weiterer Nachteil der TA Lärm: Sie schreibt vor, dass der Schalldruckpegel auf eine Art gemessen werden muss, mit der das Lautstärkeempfinden des menschlichen Ohres nachbildet wird. Nur: Diese sogenannte A-Bewertung, gemessen in Dezibel-A, gewichtet höhere Tonlagen aus Prinzip stärker, da zum Beispiel schrille Geräusche von Menschen gemeinhin auch als größere Belästigung wahrgenommen werden.

Die speziell tiefen Frequenzen, die von Windkraftanlagen ausgehen, werden bei dieser Art der Messung aber ignoriert.

Zwar bestimmt die TA Lärm auch, dass bei Hinweisen auf tiefe Frequenzen weitere Messungen zu erfolgen haben. Nur: Diese weiteren Messungen sollen dann nach den Vorgaben einer Deutschen Industrienorm durchgeführt werden. Und diese DIN 45680 hat, wie jede DIN, nicht mehr den Charakter einer Rechtsvorschrift, sondern schlicht den einer Empfehlung. […]

Die Dänen haben aus dem Dilemma einen Ausweg gefunden. An Land werden zwar nur noch wenige neue Anlagen hinzukommen, glaubt Jan Hylleberg, der Chef des Windindustrie-Verbandes. Das Wachstum werde aber auf dem Meer erfolgen.

Mit zwei neuen Großwindparks in Nord- und Ostsee soll die 50-Prozent-Marke beim Ökostromanteil bis 2020 übersprungen werden. In dänischen Küstengewässern gebe es dann ebenso viel Windkraftleistung wie an Land.

Deutschland will diesem Öko-Vorbild nicht folgen. Im Gegenteil: Die Ausbaupläne für Offshore-Wind wurden jüngst kräftig zusammengestaucht. Die Bundesregierung will bis 2020 nur noch 6500 Megawatt in Nord- und Ostsee zulassen, während es an Land bereits mehr als 35.000 Megawatt Windkraft gibt.

Dänemark verringert die Onshore-Windkraft

 Im Jahre 2018 beschliesst das dänische Parlament einstimmig im Rahmen der Energiepolitik bis 2030,  die zu diesem Zeitpunkt existierenden 4300  onshore-Windräder in Zukunft auf 1850 zu begrenzen  (160)

In der Zwischenzeit hat die dänische Regierung die Entscheidung aufgeschoben, da die Vertretung der dänischen Windwirtschaft „Wind Denmark“ die geschätzte Lebenszeit von Windrädern von etwa 25 Jahren auf etwa 35 Jahre angehoben hat, so dass die Realisierung der Windradreduktion  den dänischen Steuerzahler 6.6 Billionen DK (etwa 900 Milliarden Euro) kosten würde. Dänemark hat mit Deutschland die teuersten Strompreise in Europa (161).

2.3.2.9 Der Konflikt wissenschaftlicher Arbeit und wirtschaftlicher Interessen

 Curt Devlin, ehemaliger Lehrbeauftragter für Philosophie an der Tulane Universität, New Orleans, entwickelt heute Software für die Entdeckung und Behandlung von Krebsleiden.

Er beklagt, dass die Windenergieindustrie mit millionenschweren Studien, die Ungefährlichkeit der Windräder demonstrieren will (162). Er führt als Beispiel der „Täuschung der Öffentlichkeit“ die “Wind Turbine Health Impact Study: Report of Independent Expert Panel” (s. unten) an, die im Jahre 2012 durch „das unheilige Bündnis von Windindustrie und dem Büro des Gouverneurs von Massachusetts entstanden ist“.

 „Dies (Autor: bewusste Missachtung der Leiden der Anwohner) ist der Grund warum die Wind-Industrie strategisch und systematisch versucht hat Turbinenbetreiber und Anwohner mit Landaufkäufen und Geheimhaltungsvereinbarungen ruhig zu stellen. Zweifelsfrei ist dies auch der Grund warum sie und ihre Unterstützer diejenigen Akustik- Ingenieure, Ärzte und behördliche Gesundheitsexperten öffentlich angegriffen haben, die, in Übereinstimmung mit ihrem Berufsethos, versucht haben, die Wahrheit öffentlich bekannt zu machen. Diese Industrie macht seriöse Wissenschaft lächerlich, und stellt seine Vertreter als Verleumder und seine schlaflosen Opfer als geisteskrank hin. Dies alles um bewusste kriminelle Grausamkeit zu bemänteln, die im Namen ungezügelter Gier begangen wird.

In ihrer Entschlossenheit die hässliche Realität von Windrädern zu kaschieren, setzt diese Industrie Geld und falsche Versprechungen von billiger Energie ein, um einen durch nichts gerechtfertigten Einfluss auf öffentliche Amtsträger auszuüben. Sie ersetzt die Wissenschaft durch eine Pseudowissenschaft, gibt riesige Dollarbeträge für PR-Kampagnen aus, um ehrlichen Journalismus auszuschalten und fördert Panikmache anstelle einer vernunftgeleiteten Diskussion über die Erneuerbaren Energien.“

Die „Massachusetts-Studie“ (s. oben) hatte zum Resultat, „dass die Verfasser keinen wissenschaftlichen Beweis fanden, dass das Leben in der Nähe einer Windturbine negative Auswirkungen auf die Gesundheit hat.“

 Diese Studie wird in einer Analyse von Raymond Hartmann ( Doktor (MIT) in Mathematischer Wirtschaftswissenschaft) als „Junk Science“ bezeichnet:

„Die Schlussfolgerungen der Studie sind äusserst und zutiefst irreführend“ (163).

2.3.2.10 Deutsche Initiativen gegen Windkraft

Die Neue Züricher Zeitung berichtet über die Bürgerinitiativen in Deutschland, die die Natur und ihre Gesundheit gegen die Errichtung von Windparks schützen wollen (164)

„Das Landschaftsbild hat sich dadurch vielerorts verändert. Eine längere Autofahrt durch die Bundesrepublik führt unweigerlich an Dutzenden Windrädern vorbei. «Auf dem Land ist fast jede Kommune davon betroffen», sagt Nikolai Ziegler. Er ist Vorsitzender von Vernunftkraft, dem Dachverband der Windkraftgegner. Laut Ziegler gibt es in Deutschland mehr als 1000 Bürgerinitiativen, die gegen die Windenergie mobil machen. Mehr als 900 davon seien bei Vernunftkraft vertreten. Die Mitglieder der zwölf Landesverbände von Vernunftkraft trafen sich im Dezember zur Jahresversammlung in Berlin. Sie eint der Wunsch, weitere Windturbinen zu verhindern“.

2.3.2.11 Ungeeignete  Prüfnormen

 Gesetzliche Bestimmungen zu tieffrequentem Schall

Bestimmte Anlagen unterliegen dem immissionsschutzrechtlichen Genehmigungsverfahren nach Paragraf 4 des Bundes-Immissionsschutzgesetzes (⁠BImSchG⁠). Die Anlagen sind so zu errichten und zu betreiben, dass keine schädlichen Umwelteinwirkungen und sonstige Gefahren, erhebliche Nachteile und erhebliche Belästigungen für die Allgemeinheit und die Nachbarschaft hervorgerufen werden können. Diese gesetzlichen Anforderungen werden mit der „Technischen Anleitung zum Schutz gegen Lärm (⁠TA Lärm⁠)“ konkretisiert. Die besondere Charakteristik von tieffrequenten Geräuschimmissionen wird innerhalb des Beurteilungsverfahrens der TA Lärm (Nummer 7.3) durch einen Verweis auf DIN 45680 berücksichtigt. Trotz einer Einhaltung der Anforderungen dieser Norm kann es im Umfeld von gewerblichen Anlagen mit tieffrequenten Immissionsanteilen zu Beschwerden von Anwohnerinnen und Anwohnern kommen, die sich von derartigen Anlagen belästigt und in ihrer Gesundheit beeinträchtigt fühlen.

Seit mehreren Jahren wird in verschiedenen  Veröffentlichungen dargelegt, dass die derzeit gültigen Bewertungskriterien von Lärm, die TA Lärm und DIN 45 680 für niederfrequenten Schall (z.B: von Windkraftanlagen) nicht geeignet sind, da die angewandte Schallbewertung, sich auf den hörbaren Schall beschränkt (165) und Infraschall unter 8 Hz wird nach den derzeit gültigen technischen Richtlinien gar nicht gemessen sowie die von Windkraftanlagen erzeugten, tonalen Spitzen, unterdrückt. Siehe auch die von Medzinern geäusserten Festellungen (151), (155), (156).

Neufassung DIN 45 680 geplant

Seit 2020 wird von der Normierungsstelle in Berlin wieder einmal versucht die DIN 45 680 zu aktualisieren. Dazu schreibt die „Baubiologie Regional“ unter “Komplett neuer Ansatz für die DIN 45680“ (166)

„[…] Die große Anzahl von Betroffenen und eine neue Studienlage führten bei den Normierungsbehörden offensichtlich zu einem Umdenken. Besonders die dänische Studie von Møller und Pedersen aus dem Jahr 2004 hatte aufgezeigt, wie belästigend tieffrequente Geräusche auf Menschen wirken können.“

Den Hinweis auf die Studie des Jahres 2004 „Hearing at low and infrasonic frequencies“ erhalten Sie hier (167):

“Trotz der allgemeinen Auffassung dass Infraschall nicht hörbar ist, können Menschen auch Schall unter 20 Hz fühlen. Das gilt für alle Menschen mit einem normalen Hörvermögen , nicht nur für einige Personen. Der gefühlte Charakter des Schalls ändert sich allmählich mit der Frequenz. Für reine Töne nehmen die Klangfarbe und die Tonhöhe mit der Frequenz ab und verschwinden beide um die Frequenz von 20 Hz. Bei noch tieferen Frequenzen werden die Töne nicht-kontinuierlich wahrgenommen. Von 10Hz ab nach unten ist es möglich den einzelnen Zyklen des Tons zu folgen und sie zu zählen und das Empfinden verändert sich zu einem Druck auf den Ohren […] Teilweise tritt ein Druckgefühl im oberen Teil des Brust- und Halsbereichs  auf.“

In den Erklärungen liest man weiter: “Auf die vorliegenden Ergebnisse bezogen sich dann diverse Folgestudien. Die Normierungsstelle der DIN hat diesen Sachverhalt offenbar richtig erkannt und berücksichtigt unterdessen, dass Menschen tiefe Töne unterschiedlich wahrnehmen“.

Die Organisation „Windwahn“, ein Zusammenschluss  der von der Windkraft Geschädigten, kommentiert (168)

„Umso unverständlicher für uns ist, dass die Überarbeitung der DIN 45680 zur Neufassung der TA Lärm, auf die seit 2005 verwiesen wird seit 12 Jahren stagniert, weil sie weder von Branchenlobbyisten noch von der Politik gewollt ist. Seit 2013 liegt zwar ein Entwurf zur Neufassung vor, aber es gibt seither keine weiteren Fortschritte“.

Aktueller Stand

Zum derzeitigen Stand der Neufassung der DIN 45 680 sind auf dem Internet keine Informationen verfügbar. Versuche des Autors mit den Organisationen „Vernunftkraft“ und AKEM Kontakt aufzunehmen ergaben, dass der Arbeitskreis (AK) immer noch beschäftigt ist die vielen Stellungnahmen und Einwände (über 1000) zu diskutieren und dazu noch weitere Sitzungen benötigen wird. Details der Arbeit dürfen von den Mitgliedern des Arbeitskreises nicht an die Öffentlichkeit gegeben werden. Man kann jedoch heute mit Sicherheit sagen (siehe auch die Zusammensetzung des Arbeitsausschusses in der Abbildung unten),  dass es in den kommenden 2 Jahren keinen Weissdruck einer neuen Fassung geben wird, auf die sich  Windkraftgegner berufen könnten, um  durch Paragraf 4 des Bundes-Immissionsschutzgesetzes (⁠BImSchG) geschützt zu werden.

Normenausschuss Akustik, Lärmminderung und Schwingungstechnik (NALS): Kommissionsmitglieder aus Wirtschaft und Anwendung bilden gemeinsam mit den Vertretern der Landesumweltämter und des UBA eine Stimmenmehrheit von 81 %.

Kommentar des Autors: Der Autor hat mehr als 20 Jahre in nationalen DIN- und internationalen ISO- Gremien mitgearbeitet. Die Erfahrung ist, dass es praktisch unmöglich ist, eine Norm gegen die Interessen einer großen Wirtschaftsorganisation durchzusetzen. Das erklärt zum Teil die Zeitverzögerung von mehr als 15 Jahren nach dem Erscheinen des Artikels von Möller und Pedersen mit der die Behörde auf diese für die Volksgesundheit wesentliche Studie reagiert hat.

Dagegen lagen zwischen dem Urteil des Verfassungsgerichts im April 2021 zur Verschärfung des Klimaschutzgesetzes und dem entsprechenden  Gesetzentwurf bzw dem neuen Gesetz  nur wenige Tage bzw wenige Wochen

2.3.2.12 Welche Abstände müssen Windräder zur Wohnbebauung einhalten?

 Neue Abstandsregelungen für Windenergieanlagen (169)

Seit dem 14.08. 2020 gilt für die Mindestabstände von Windrädern zu Wohnsiedlungen die Neufassung des § 249 Abs. 3 BauGB durch das „Gesetz zur Vereinheitlichung des Energieeinsparrechts für Gebäude :

„Die Neuregelung in § 249 Abs. 3 BauGB enthält eine Länderöffnungsklausel, die die Entscheidung über die einzuhaltenden Mindestabstände zu Wohngebieten weitgehend den Ländern überlässt. Danach ist es den Ländern freigestellt, durch Landesgesetz festzulegen, dass die Außenbereichsprivilegierung für Windenergieanlagen nach § 35 Abs. 1 Nr. 5 BauGB nur Anwendung findet, wenn diese bestimmte Mindestabstände zu landesgesetzlich festgelegten baulichen Wohnnutzungen einhalten. Die Festlegung von Mindestabständen ist dabei auf ein Höchstmaß von 1000 Metern beschränkt. […]

Damit hat sich die Einführung der Länderöffnungsklausel gegen eine ursprünglich vom Bundeswirtschaftsministerium vorgesehene pauschale Abstandsregelung für Windenergieanlagen von 1000 Metern zu Wohnsiedlungen durchgesetzt.“

Nach dem verschärften Klimagesetz (Deutscher Bundestag Drucksache 19/309 49 ) vom Juni 2021 gilt:

„Wird eine Anlage zur Erzeugung von Strom aus erneuerbaren Energien modernisiert (Repowering), müssen auf Antrag des Vorhabenträgers im Rahmen des Änderungsgenehmigungs-verfahrens nur Anforderungen geprüft werden, soweit durch das Repowering im Verhältnis zum gegenwärtigen Zustand unter Berücksichtigung der auszutauschenden Anlage nachteilige Auswirkungen hervorgerufen werden und diese für die Prüfung nach § 6 erheblich sein können“.

Das bedeutet neue leistungsstärkere und höhere Windkraftanlagen benötigen keine neuen Genehmigungen vorausgesetzt die von den neuen Anlagen ausgehenden Belastungen sind nicht höher als die alten.

2.3.2.13 Die Windkraftlobby

Die Webseite Welt.de veröffentlichte ein detaillierte Analyse von Bojanowski und Wetzel  über die Energiewendelobby in Deutschland (170).

Es folgt eine komprimierte Fassung dieser Recherche.

Danach besitzt die Klimalobby bevorzugte Beziehungen zur Regierung. „Oft würden sich die Nichtregierungsorganisatione (NGO’s) als kleine Bürgerinitiativen inszenieren, die gegen den übermächtigen Feind einer übermächtigen Kohle-und Atomindustrie kämpfen“.

In Wirklichkeit werden diese grünen NGO’s in großer Zahl zu Regierungsbesprechungen eingeladen: eine Auswahl sind Greenpeace, Germanwatch, Deutsche Umwelthilfe, Bund für Naturschutz (BUND) und Nabu, Agora Energiewende, WWF, Robin Wood und Klima-Allianz.

So waren Umweltschutz NGO’s Mitglieder der Kohleaustiegskommission 2019 während Vertreter der unmittelbar betroffenen Kohleindustrie keinen Zutritt hatten.

„Um den weltweit beispiellosen Kurs eines gleichzeitigen Ausstiegs aus Atom-und Kohlekraft zu bewältigen benötigt Deutschland ein Energiewunder durch Windkraft und Sonnenenergie, aber vor allem die Unterstützung der Bevölkerung.“

„Ein erster grosser Schritt war das Erneuerbare Energiengesetz , das den eher vermögenden Bürgern (die sich diese Solaranlagen auf dem Dach oder eine Windparkbeteiligung leisten konnten) die Möglichkeit gab von den Ökostromsubventionen zu profitieren. […]Noch im Jahr des Fukushima-Unfalls gründeten sich 150 Energiegenossenschaften, die etwa in Fotovoltaik, Biomasse oder Windkraftanlagen investierten“.

Einschub Fallbeispiel Aurich: Dubiose Geschäfte mit der Windkraft

Der NDR hat in seiner Sendung Panorama 3 ein beunruhigendes Lobbynetzwerk untersucht.

Da die Windkraft fette Gewinne verspricht, will auch die öffentliche Hand gern mitverdienen So hat sich im Landkreis Aurich in Niedersachsen  eine Organisation entwickelt in dem die Kommune nicht nur einen Windpark betreibt sondern diesen auch beantragt und genehmigt hat und  darüber hinaus nun auch kontrolliert.

 „Die Kommune Aurich hat  die Kommunalaufsicht pflichtgemäß über ihr Geschäft mit der Windkraft informiert mit der Begründung die  „Grundversorgung der Landkreisbevölkerung mit bezahlbarer regenerativer Energie“ zu sichern

Preiswerten Strom gibt es beim Kreis Aurich heute nicht zu kaufen aber vom niedersächsischen Innenministerium nichts zu befürchten. Die Landesregierung will das Engagement der Kommunen im Bereich der erneuerbaren Energien fördern.“

Innerhalb weniger Jahre verdreißigfachte sich die EEG Umlage und deutsche Staatsbürger zahlen neben den Dänen heute europaweit den höchsten Strompreis

„Während sich die Mannschaftsstärke des angeblichen „fossilen Imperiums“ heute buchstäblich an einer Hand abzählen lässt, listet allein der Bundesverband Windenergie (BWE) in seinem Juristischen Beirat 100 Rechtsanwälte und Experten auf“.

Die Lobby für den Klimaschutz in Deutschland stützt sich heute auf üppige Geldmittel. Die eine Säule der Finanzierung sind Subventionen aus Steuergeldern durch die Bundesregierung und die EU. Die zweite Säule bilden private Stiftungen, deren Milliardenvermögen und ihre Struktur nicht immer transparent sind. Die beiden wichtigsten Stiftungen sind die Stiftung Mercator und die European Climate  Foundation.

„Umwelt-und Klimaschutzverbände finanzieren sich wesentlich aus Steuergeldern Von 2014 bis 2019 erhielt  der Umweltverband BUND rund 21 Millionen Euro aus der Steuerkasse, der größte deutsche Naturschutzverein Nabu insgesamt sogar 52,5Millionen Euro […].

Dabei ließen sich die beiden Naturschutzvereinigung ihr Klagerecht in Umweltfragen, so gegen Windkraftanlagen abkaufen. In Hessen zahlte der Betreiber des Windparks eine halbe Million Euro in einen Naturschutzfonds des Nabu. […] Zusätzlich unterstützt der Nabu den Ausbau der Windkraft mit dem Argument, dass dieser Ausbau „naturverträglich“ möglich sei. So vereinbarte der Nabu-Präsident vor Kurzem mit Robert Habeck ein Regelwerk zum weiteren Windkraftausbau“.

Einige Vogelschutzfreunde war diese Lobbyunterstützung zu viel und sie wechselten zur windkritischen Naturschutzinitiative (NI).

„Im Rahmen der Vorbereitungen einer BUND -Klage gegen den Vorwurf des Lobbyismus des BUND Mitbegründers Enoch zu Guttenberg legte dessen Anwalt eine Liste mit 68 BUND-Mitgliedern vor, die mit der Windindustrie wirtschaftlich oder beruflich verbunden waren.

Im Jahre in Baden-Württemberg 2016 und 2019 in Nordrhein-Westfalen 2019 wechseln Nabu-Landeschefs problemlos auf gut bezahlte Staatssekretärsposten der Landesregierung beziehungsweise des Bundesumweltministeriums (BMU)“.

Vervollständigt wird das Netzwerk der Energiewendelobby in ihrem Kampf für die ungezügelte Implementierung der Windkraft durch die Nabu-Mitgliedschaft von Svenja Schulze und dem Versuch von Peter Altmaier „Vorurteile gen die Windkraft“ durch einen „Faktencheck“ auf seiner Webseite zu entkräften. 

Windkraft: nicht konform mit dem Grundgesetz

Dietrich Murswiek, emeritierter Professor für Rechtswissenschaften mit den Schwerpunkten Verfassungsrecht, Völkerrecht und Umweltrecht bemerkt zur Konformität der Windkraftanlagen mit dem Grundgesetz (19a)

„[…] Der Staat ist gemäß Artikel 20a des Grundgesetzes zum Schutz der natürlichen Lebensgrundlagen verpflichtet gleichgültig, wodurch sie beeinträchtigt werden, und selbstverständlich auch dann, wenn die Beeinträchtigung durch CO2-Emissionen erfolgt oder durch Vernichtung von sogenannten „Senken“(beispielsweise Wäldern), die CO2 aus der Luft entnehmen und chemisch umwandeln.

[…] Die Zahl der Windkraftanlagen wird sich selbst bei Verdoppelung ihrer Leistung mehr als verdreifachen müssen, von heute fast 30.000 auf vielleicht 100.000. Deutschland wird nicht mehr wiederzuerkennen sein.

Die Abwägung, die Artikel 20a bei staatlichen Programmen mit weitreichenden Umweltauswirkungen verlangt, geht deshalb eindeutig zulasten der Windenergie aus: Ihr Schaden für die Umwelt ist groß; einen Nutzen für die Begrenzung der Erderwärmung und der durch sie befürchteten Umweltschäden hat sie nicht.

[…] Wenn aber Technologien gefördert werden, die einerseits zur Verminderung der CO2-Emissionen beitragen, aber andererseits die Umwelt schädigen, haben wir ein Problem. Dann muss abgewogen werden, ob der Nutzen dieser Technologie für den Klimaschutz – genauer für die Vermeidung von Umweltschäden, die durch menschengemachte Erderwärmung entstehen – größer ist als die Umweltschäden, die von dieser Technologie verursacht werden.

Erst dann könnte rational entschieden werden, ob die Windkraftförderung der Umwelt mehr nutzt oder schadet. Eine solche Folgenabschätzung fehlt bislang. Sie zu unterlassen, war schon bei der bisherigen Subventionierung der erneuerbaren Energien verfassungsrechtlich defizitär und wäre jetzt bei einer Weichenstellung mit so gravierenden Folgen für Natur und Landschaft wie es ein Beschluss wäre, der mindestens die Verdoppelung der Windkraftanlagen zur Folge haben müsste, ein grober Verstoß gegen das Verbot des Artikel 20a, den Zustand der Umwelt in Deutschland durch staatliche Maßnahmen zu verschlechtern.“

Da der Art. 20a GG nicht dem Schutz individueller Interessen, sondern dem Gemeinwohl dient, kann eine Einzelperson vor Gericht seine Verletzung nicht geltend machen. Klagen können aber Umweltverbände und Gemeinden.(…)“

Nach (171 ) gehen die Juristen Grosse Hündfeld und Murswiek  aktuell auf Vortragsreise, um Bürgermeister und Stadträte betroffener Gemeinden über den juristischen Hebel des Art. 20a GG zu informieren.

Nicht nur gegen den unmittelbaren Bau lässt sich der Artikel in Stellung bringen, auch gegen die gesetzlichen Grundlagen: Klageberechtigte Naturschutzverbände können zum Beispiel mit dem Instrument der konkreten beziehungsweise. abstrakten Normenkontrolle gegen die aufgeweichten Neufassungen der Artenschutzvorschrift oder des Bundesnaturschutzgesetzes vorgehen. Und natürlich kann auch das EEG (Erneuerbare-Energien-Gesetz) selbst damit angegriffen werden.

Folgt ein Verwaltungsgericht der Argumentation, käme die Sache vor das Bundesverfassungsgericht. Das würde zumindest ein grelles Schlaglicht auf die Problematik werfen. Große Hündfeld und Murswick gehen aktuell auf Vortragsreise, um Bürgermeister und Stadträte betroffener Gemeinden über den juristischen Hebel des Art. 20a GG zu informieren, denn die meisten Parlamentarier, so Grosse Hündfeld, haben von dieser verfassungsrechtlichen Problematik leider schlichtweg keine Ahnung.

2.3.3 Photovoltaik

2.3.3.1 Perspektiven der Photovoltaik

Gero Rueter  schreibt über die Perspektiven der Solarindustrie (15c):

Solarkraft ist heute weltweit oft die günstigste Form der Stromerzeugung. Seit 2008 sanken die Preise für Module um über 90 Prozent pro Watt und ein Ende dieses Trends ist nicht in Sicht.“

Nach Berechnungen der Forscher der Lappeenranta University of Technology in Finnland (LUT) und Experten der Energy Watch Group (EWG) wird im Jahre 2050 bei vollständiger Umstellung auf erneuerbare Energien die Solarenergie deshalb weltweit bald zum wichtigsten Energieträger mit einem Anteil von 70%

Dazu wären Solarstrom- Module mit einer Kapazität von 63.000 Gigawatt weltweit nötig, knapp 100 Mal mehr als heute, so die Berechnungen der Energieexperten

2.3.3.2 Erzeugungspotential für Photovoltaik in Deutschland

Bild 3a: Anwendungen für die Integration von Photovoltaik

Eine Studie des Fraunhofer Instituts im Auftrag des Bundesministeriums für Verkehr und digitale Infrastruktur schätzt das Ausbaupotenzial für Photovoltaik in Deutschland ab (15d). Dächer und Fassaden, bieten ein technisches Potenzial von mindestens 900  GW.  Die aktuell für den Energiepflanzenanbau genutzte Fläche entspricht einem zusätzlichen technischen Potenzial von 700 GW Nennleistung.

Mit Hilfe von Agrophotovoltaik lassen sich Landwirtschaft und Stromproduktion auf derselben Fläche kombinieren (www.agrophotovoltaik.de). Eine Reihe von Nutzpflanzen zeigen kaum Ertragseinbußen bei reduzierter Einstrahlung, andere profitieren sogar. Wird die aktuelle Anbaufläche dieser beiden Pflanzenklassen in Deutschland als technisches Potenzial angenommen, so entspricht dies einer Nennleistung von 1 700 GW.

Weitere Flächen für die Nutzung der Fotovoltaik sind freischwimmende Fotovoltaik- Flöße auf gefluteten Braunkohletagebau-Flächen, Lärmschutzwände, Schattenspender und befahrbare Module im urbanen Bereich sowie Dächer von Elektrofahrzeugen

2.3.4 Die deutsche Solarindustrie, Subventionen, Schutzzölle

Trotz der Unterstützung der deutschen Solarindustrie in Milliardenhöhe kam es nach einem anfänglichen Boom zu einem schmerzhaften Abschwung (15e)

„Noch in den 2000er Jahren lief es für die deutsche Solarindustrie hervorragend. Die rot-grüne Koalition hatte mit dem Erneuerbare-Energien-Gesetz, kurz EEG, die Vergütung von Solarstrom kräftig angehoben. […]

Die Branche begann rasant zu wachsen. So rasant, dass ausländische Mitbewerber einstiegen – vor allem aus China.[…]

Deutschland hat also mit seiner Förderung dafür gesorgt, dass die Solarwirtschaft global wettbewerbsfähig wurde, doch die heimische Wirtschaft hatte bald nicht mehr viel davon. Unter den 15 größten Solarfirmen befanden sich als einzige deutsche Firmen einer Aufstellung des Handelsblatts aus dem Jahr 2016 zufolge nur noch Solarworld (Autor: Solarworld hat 2017 Insolvenz angemeldet (…)) und Q-Cells aus Bitterfeld, das inzwischen aber einem südkoreanischen Unternehmen gehört.[…]

Die Krise der deutschen Photovoltaik-Branche mag viele erstaunen, fließt doch noch immer viel Geld in den Markt.

Professor Manuel Frondel von der Ruhr-Universität Bochum hat vor einiger Zeit zusammen mit Kollegen die Kosten der Solarförderung aufsummiert und kam für den Zeitraum von 2000 bis 2012 auf über 107 Milliarden Euro an Zahlungsverpflichtungen der bis dahin installierten Solaranlagen in Deutschland. […] Mittlerweile, sagt Frondel, dürfte der Wert der Zahlungsverpflichtungen die 110-Milliarden-Euro-Marke deutlich überschritten haben. „Dies müssen die Stromverbraucher mit ihrer Stromrechnung zahlen“, erklärt er. […]“

Zum Schutz der heimischen Hersteller hatte die EU im Jahre 2013 Antidumpingzölle auf Solarmodule aus China eingeführt, die 2018 wieder aufgehoben wurden (Webseite der Europäische Kommission)

2.3.4.1 Neustart der deutschen Solarwirtschaft

„Seit im September 2018 die Produktion im letzten Werk des einstigen Vorzeigeunternehmens Solarworld eingestellt wurde, gibt es keinen nennenswerten deutschen Hersteller von Solarzellen mehr (15f). […]

Andreas Bett, Direktor des Fraunhofer Instituts für Solare Energiesysteme in Freiburg [Autor] sieht aber Chancen, in Deutschland wieder Solarzellen in größerem Stil zu produzieren. Forschung und Entwicklung seien noch auf ganz hohem Niveau. „Es muss aber jetzt die Produktion aufgebaut werden.“ Einen Kostennachteil sieht Bett für eine heimische Produktion nicht. „Die Produktionskosten wären in Deutschland nicht höher als in China, weil die Herstellung stark automatisiert ist.“ Der wachsende Anteil der Transportkosten am Gesamtpreis für PV-Module aus Asien spreche zudem für eine Fertigung in Deutschland.

Der Aufbau von Produktionskapazitäten in Europa werde aber nur gelingen, „wenn die Politik für faire Wettbewerbsbedingungen sorgt“. Aussichtsreich sei dabei vor allem die Produktion hocheffizienter Solarmodule, die unter anderem an Gebäuden oder Lärmschutzwänden installiert werden könnten. „Weil die Akzeptanz für Photovoltaik auf Freiflächen sinkt, ist das eine Riesenchance“, sagte der Wissenschaftler.“

Der Neustart der Solarindustrie in Deutschland wird von Gero Rueter in „DW made for minds“ beschrieben (15c).

Der Neustart baut auf den Vorteil einer bestehenden Infrastruktur

Die Solarzellen sollen in Bitterfeld-Wolfen produziert werden, die Solarmodule 150 Kilometer entfernt in Freiberg bei Dresden. Dafür wurde die einst größte Solarfabrik Europas gemietet.

Nach der Insolvenz von Solarworld endete hier 2018 die einst bedeutende deutsche Produktion von Solarzellen und Solarmodulen.Die deutschen Solarpioniere überlebten den Preiskampf mit China nicht.

Der neue Investor ist das Schweizer Unternehmen Meyer Burger. Das Technologieunternehmen ist Weltmarktführer für die Maschinenausstattung von Solarfabriken. Nun will das Unternehmen selber Zellen und Module produzieren und vom stark wachsenden Markt profitieren

Da die Photovoltaik deutlich billiger geworden ist, ist der Anteil der Transportkoste prozentual größer geworden. Mit der lokalen Produktion in Europa würde nun ein Kostenvorteil entstehen.

2.3.6 Das Investitionsbeschleunigungsgesetz

Im August 2020 beschließt das Bundeskabinett den Entwurf des sogenannten Investitionsbeschleunigungsgesetzes.U.a. soll der Bau neuer Windkraftanlagen durch das neue Gesetz beschleunigt werden, Klagewege durch die Instanzen werden verkürzt. So sollen Oberverwaltungsgerichte oder Verwaltungsgerichtshöfe künftig in erster Instanz zuständig sein. Anfechtungsklagen und Widersprüche gegen Windkraftprojekte entfalten keine aufschiebende Wirkung mehr (19b).

2.3.6.1 Erneuerbare Energien: Frage der öffentlichen Sicherheit ?

Mitte Oktober 2020 berichtete die Welt, dass die Bundesregierung die Nutzung erneuerbarer Energien zu einer Frage der nationalen Sicherheit machen will (19l).

„Die Nutzung erneuerbarer Energien zur Stromerzeugung liegt im öffentlichen Interesse und dient der öffentlichen Sicherheit‘, heißt es im Entwurf des neuen Erneuerbare-Energien-Gesetzes.“ […]

Der Verweis auf ‚öffentliche Sicherheit‘ dürfte im Streitfall um den Bau etwa von Windkraftanlagen andere Interessen grundsätzlich ausstechen. […]

Bei Gerichtsverfahren im Zusammenhang mit dem Ausbau von Bioenergien, Wind- und Solarkraft könnte der Verweis auf „öffentliche Sicherheit“ Ermessensentscheidungen der Richter einschränken, fürchten Wirtschaftsvertreter. […].

Die neue Norm drohe zur Grundlage weitreichender staatlicher Eingriffe zu werden.

Die Bundesregierung bestätigte, dass die neuen staatsrechtlichen Weihen für Öko-Energie die Durchsetzung von Bauanträgen erleichtern sollen.“

Mitte Dezember 2020 berichtete die Welt, dass der Sicherheitsparagraf in der EEG Reform, die  vom Bundestag und Bundesrat beschlossen wurde, nicht mehr enthalten ist (19m).

2.3.7 Erneuerbare Energien: Subventionen

Björn Lomborg vergleicht die Entwicklung der Stromerzeugungskosten der Erneuerbaren Energien mit dem Wert des durch sie erzeugten Stroms (19p). Bei der Windkraft sind zwischen 2008 und 2016 die Stromerzeugungskosten um 33% gesunken, der Wert der produzierten Energie auf dem Strommarkt  fiel allerdings mit 43 % noch schneller. Die Windenergie ist  auch heute nicht kosteneffizient.

Der Grund für den nicht kostendeckenden Wert der erneuerbaren Energien ist, dass Wind und Sonnenstrom nur unregelmäßig zur Verfügung stehen. Deshalb muss das Stromnetz einen erheblichen Anteil der Stromproduktion mit fossilen Brennstoffen oder Batterien absichern, was die Kosten erhöht (siehe auch 2.3.15). Die zunehmende Lücke muss vom Verbraucher weiter durch hohe Subventionen bezahlt werden.

Auch in Zukunft wird nach Lomborg der Wert des produzierten Stromes schneller sinken als die nötigen Kosten. In Deutschland müssen die erneuerbaren Energien also weiterhin subventioniert werden

So wird nun in der Novelle des Erneuerbare-Energien-Gesetzes (EEG 2021) beschlossen, dass die alten Windräder weiter gefördert werden (19q). 20 Jahre lang hatte der Stromverbraucher den Betrieb der Rotortürme nach den Vorgaben des Erneuerbare-Energien-Gesetzes (EEG) subventioniert. Jetzt endet für die ältesten Anlagen dieser Förderzeitraum. Die Betreiber müssten sich künftig eigentlich selbst um die Vermarktung ihres Stroms kümmern. Das aber ist in den meisten Fällen kaum lohnend.

Doch um die Abrisswelle in letzter Minute zu verhindern, befanden Bundesregierung und Parlamentsmehrheit vergangene Woche: 20 Jahre Beihilfen sind noch nicht genug.

2.3.8 Elektromobilität, negative CO2-Gesamtbilanz

2.3.8.1  Energiedichte und Kosten Infrastruktur

Im Lexikon des „Batterieforums Deutschland“ (16a) steht :

„Bei der Energiedichte unterscheidet man zwischen volumetrischer und gravimetrischer Energiedichte. […]

Die gravimetrische Energiedichte beschreibt, wie viel Energie pro Gewicht (Masse) der Batterie gespeichert werden kann. Sie wird in Kilowattstunden pro Kilogramm (kWh/kg) angegeben. […]

Die volumetrische Energiedichte beschreibt, wie viel Energie pro Volumen aus einer Batterie entnommen werden kann. Sie wird in Kilowattstunden pro Liter (kWh/L) angegeben.

Zum heutigen Stand der Batterien für Elektroautos und seinen Entwicklungsmöglichkeiten in den nächsten 10 Jahre findet das Fraunhofer Institut (16b)

„In den letzten zehn Jahren (Artikel erschienen Januar 2020) hat sich die Energiedichte großformatiger, in E-Pkw eingesetzter LIB-Batteriezellen (Autor: Lithium-Ionen- Batterien) fast verdoppelt auf heute durchschnittlich 200 Wh / kg bzw. 400 Wh / l. Bis 2030 könnte die (insbesondere volumetrische) Energiedichte nochmals maximal verdoppelt werden, sofern die damit einhergehenden großen FuE Herausforderungen erfolgreich umgesetzt werden. [… ]

„Dies und ein weiter verringerter Energieverbrauch der Fahrzeuge (kWh / km), zum Beispiel durch Isolation und Verringerung des Heizaufwands, eine Verringerung des Energieverbrauchs durch Elektronik, Leichtbau etc. könnte bei gleichem Batterieplatzbedarf zu einer Verdopplung der Reichweite von heute etwa 250 bis 400 Kilometern auf 500 bis 800 Kilometer in den kommenden zehn Jahren führen [47, 91, 92]. Höhere gegebenenfalls in der Literatur genannte Energiedichten und damit verbundene Reichweiten auf Basis alternativer und meist noch in der Grundlagenforschung befindlicher Batteriechemien sind aus heutiger Sicht spekulativ.“

Zum Gewicht der Elektroautobatterien sagt Prof. Günther Schuh, Konstrukteur des StreetScooter und e.Go (16c):

  „Es gibt einfach einen zu großen Unterschied in der Leistungsdichte zwischen der Feststoffbatterie und dem Diesel. Das ist reine Physik. Wo ich heute einen 50-Liter-Dieseltank herum karre, müsste ich selbst bei einem besseren Wirkungsgrad immer noch eine mehr als 700 Kilo schwere Batterie in einem Elektroauto haben. Das kann weder ökologisch noch ökonomisch gut sein.“

Paul Rojas beschreibt die Bemühungen der Forscher sich der Energiedichte von Benzin anzunähern (16d) :

„Im Vergleich zu der Energiedichte von Benzin schneiden herkömmliche Autobatterien nicht besonders gut ab. Es ist berechnet worden, dass Benzin bis zu 13 kWh pro kg erzeugen kann. Durch die thermischen und mechanischen Verluste im Auto erreichen nur 1,7 kWh die Räder. Es ist aber ein großer Unterschied zwischen diesen 1,7 kWh und den 0,14 vom Nissan-Leaf (Autor: Stand September 2014), fast ein Faktor von 12. Außerdem hat ein Benzinmotor im Winter den Vorteil, dass er gleichzeitig die Wärme für die Heizung erzeugen kann, ohne den Motor merkbar zu belasten.

Abb. 2 (hier Bild 2b) zeigt einen Vergleich von Batterietechnologien und die erreichbare Energiedichte in Wh/kg. Wie man sieht, liefert generische Li-Ion-Technologie um die 160 Wh/kg, aber die Lithium-Sauerstoff-Technologie könnte potenziell fast die Energiedichte von Benzin erreichen (nach Abzug der thermischen und Reibungsverluste).

Bild 3c: Praktische Energiedichte von Batterietechnologien. Die theoretische Dichte verwandelt sich in die praktische durch die thermischen und mechanischen Verluste, bis die Energie an die Räder kommt.

Bild: https://www.heise.de/tp/features/Wettrennen-um-die-Autobatterie-der-Zukunft-eroeffnet-3367548.html

Zum heutigen Stand der Entwicklung der Lithium-Sauerstoffbatterie stellt Battery-News.de fest (16e) :

„Der Weg zur wiederaufladbaren Lithium-Sauerstoff-Batterie ist noch lang und voller Hindernisse. Viele Erwartungen an diese disruptive Zellchemie konnten bis dato noch nicht realisiert werden und LiO2Batterien verfügen nur über eine stark eingeschränkte Wiederaufladbarkeit, eine geringe Lebensdauer und eine ausbaufähige Energiedichte.“

Nach (16a) gibt die Energiedichte Auskunft darüber, wie lange ein Elektroauto fahren kann, bevor es aufgeladen werden muss, während die Leistungsdichte dafür entscheidend ist, wie stark ein Elektroauto beschleunigen kann.

2.3.8.2 Die Batteriefertigung

Wesentliche Anteile der CO2-Emission eines Elektroautos entstehen bei der Fertigung und dem Recycling der Batterie.

In (19c) werden die CO2.Emissionen für die Fertigung einer Lithium Ionen Batterie aus neu gewonnen Rohstoffen pro kWh Batteriekapazität angegeben. Wenn der Strommix zwischen grünem Strom (0kg CO2/kWh) und einem Strom reich an Anteilen aus fossilen Energiequellen (1kg CO2/kWh) variiert , dann liegt der Emissionsbereich  für 1kWh Batteriekapazität zwischen 61 und 106 kg CO2. Dabei sind nicht mit eingerechnet die etwa 15kg CO2 für das Recyclen der Batterie.

Ein weiterer wesentlicher Faktor bei der Batterieherstellung ist die Verfügbarkeit der Rohstoffe für die Elektroden und die Elektrolytflüssigkeit. Dabei handelt es sich bei den sog. NMC-Batterien neben Lithium um die Metalle Nickel, Mangan und Kobalt deren Verfügbarkeit in Anbetracht der hohen Planungsziffern für die Elektromobilität deutlich begrenzt ist

Bei der Gewinnung von neuen Rohstoffen ist auch ein sozialer, moralischer Aspekt zu berücksichtigen. Nimmt man das Beispiel Kobalt, so kommen  60 Prozent des heutigen Weltmarkts aus der Demokratischen Republik Kongo, wo Armut und politische Instabilität zu Zwangs- und Kinderarbeit unter haarsträubenden Bedingungen führen.

So wird man auf die Dauer zwangsläufig die Bestandteile der Akkus durch effizientes Recycling wiedergewinnen müssen. So betont auch Akira Yoshino, der für die marktreife Entwicklung von Lithium-Ionen-Batterien den Nobelpreis erhielt, die Wichtigkeit einer umweltschonenden Wiederverwertung.

Nach (19d) hat dieser Appell die Heerscharen von Batterieentwicklern bisher kaum erreicht. Die geplante und effiziente Wiederverwertung der Energiespeicher ist bei vielen von ihnen noch immer ein nachrangiges Designkriterium, wenn überhaupt. Stattdessen geht es vor allem um Kosten, Leistung, Ausdauer und die Integration in möglichst attraktive Elektroautos.

So wäre zum Beispiel nach heutigen technologischen Stand das Zurückgewinnen des Lithiums zwar möglich, aber finanziell aufwendig und mit einen unverhältnismäßigen Einsatz von Energie verbunden.

So fasst die Ingeneurin Rebecca Ciez (Columbia University) den heutigen Stand des Recycling im Satz „Die Folgen für die Umwelt wären in einer gut gemanagten Müllkippe viel geringer“ zusammen

2.3.8.3  Break Even Point und Treibhausgasersparnis des Elektroautos

Der Break Even Point des Elektroautos sind die gefahrenen Kilometern, nach denen die Klimabilanz von Elektrofahrzeugen besser als die der Diesel- bzw. Benzinfahrzeuge ist. In der Studie (19e) ermittelt Martin Wietschel den Break Even Point für verschiedene Fahrzeugklassen und zusätzlich die gesamte Treibhausgaseinsparung über die Nutzungsdauer der Fahrzeuge.

In den folgenden beiden Abbildungen sind der Break Even Point in Kilometer für einen  Mittelklasse BEV (battery electric vehicle) mit einer Batteriekapazität von 40 kWh bzw 58 kWh dargestellt.

Bild 4a: Break Even Point für ein Mittelklasse-BEV mit einer Batteriekapazität von
40 bzw. 58 kWh mit den THG-Emissionen bei der Batterieproduktion
von 61 kg CO2-äquivalent/kWh Batteriekapazität

 

Bild 4b: Break Even Point für ein Mittelklasse-BEV mit einer Batteriekapazität von
40 bzw. 58 kWh mit den THG-Emissionen bei der Batterieproduktion
von 106 kg CO2-äquivalent/kWh Batteriekapazität

Die Ergebnisse zeigen, dass die Höhe der THG-Emissionen der Batterieproduk-tion einen deutlichen Einfluss darauf hat, wie lange ein Fahrzeug fahren muss, um den Break Even Point im Vergleich zum konventionellen Fahrzeug (Mittelklasse-Pkw) zu erreichen. Bei einer Batteriekapazität des Elektroautos im unteren Mittelklassebereich von 40 kWh, bei einem THG-Wert von 61 kg CO2-/kWh für die Batterieproduktion ( nach (19c) im unteren Bereich) und dem deutschen Strommix wird der Break Even Point für ein Fahrzeug, das 2019 gekauft wurde, im Vergleich zum Diesel bei rund 55.000 km erreicht.Wird das Fahrzeug unter sonst gleichen Bedingungen 2030 gekauft, so wird der Break Even Point mit etwas mehr als 25 000 km deutlich früher erreicht. Dies liegt daran, dass die durchschnittlichen THG-Emissionen des deutschen Strommixes über die Jahre als weiter sinkend angenommen werden. Für einen Mittelklassen PKW im oberen Leistungsbereich von 58kWh und dem THG Wert 61 kg CO2/kWh für die Batterieproduktion wird in 2019 der Break Even Punkt bei etwa 73 000 km erreicht, im Jahre 2030 bei 35 000 km.

Treibhausgasersparnis während der Nutzungszeit

Weiterhin werden alle Treibhausgasemissionen über die angenommene Nutzungszeit von 13 Jahren kumuliert und so die gesamten Treibhausgasemissionen kalkuliert. In allen untersuchten Fällen weisen die BEV gegenüber den Diesel- und Benzin-Pkw eine positive Treibhausgasbilanz auf. Sie variiert allerdings sehr stark. Wählt man in einem speziellen Fall die Fahrzeugbatterie eines Mittelklasse-Pkw im unteren Bereich  (40 kWh) und nimmt man für die Treibhausgasemissionen bei der Batterieherstellung 61kg CO2/kWh (s. oben) an, dann muss ein in 2019 gekauftes Elektroauto rund 52.000 km fahren, damit seine Treibhausgasbilanz gegenüber einem vergleichbaren Benzin-Pkw positiv wird. Dies gilt für die Nutzung des deutschen Strommixes beim Laden der Elektrofahrzeuge. Über die gesamte Nutzungsdauer werden gegenüber dem Diesel die Emissionen um etwa 9 t CO2 und um etwa 12 t beim Benzin-PKW reduziert. In (19f) wird der THG Ausstoß über die gesamte Nutzungsdauer mit etwa 35t für den Mittelklasse-Diesel und etwa 41t für den Mittelklasse-Benzin-PKW angeben.

Für den schlechtesten Fall, einem Oberklasse-Pkw mit einer sehr hohen Batteriekapazität (120 kWh) und hohen THG-Werten der Batterieproduktion (146 kg CO2/kWh), der mit deutschem Strommix lädt und 2019 angeschafft wurde, sind es nur 2 t CO2 gegenüber einem Diesel-Pkw an Einsparungen über die gesamte Nutzungsdauer. Damit werden 4 % der THG-Emissionen eingespart. Wenn man alle Fälle miteinander vergleicht ohne die Extremwerte, so ergeben sich für ein in 2019 angeschafftes Fahrzeug durch ein Elektroauto THG-Einsparungen zwischen 10 bis 25 % gegenüber den konventionellen Fahrzeugen bei Verwendung des deutschen Strommixes für Fahrzeuge, die 2019 angeschafft wurden. Für Fahrzeuge, die in 2030 angeschafft werden, sind es zwischen 25 bis 50 %.

2.3.8.4 Elektroautos statt Verbrenner: Negative Gesamtemissionsbilanz

Stahl und Kollegen (19g) betrachten die CO2-Bilanz der Elektromobilität sektorübergreifend, d. h. Sie vergleichen die CO2-Einsparung , wenn man mit den Erneuerbaren Energien (EE) den Kohlestrom ersetzt mit der der Emissionsminderung bei Verwendung der EE zum Betanken eines E-Autos. Das auf den ersten Blick etwas überraschende Ergebnis ist, dass jeder mit einem Elektroauto gefahrene Kilometer zu zusätzlichen 57g CO2 im Vergleich zur Kohlesubstitution führt. Bei einer Flotte, die bis 2030 etwa 11 Millionen E-Autos umfassen dürfte, ergeben sich somit zwischen 2020 und 2030 zusätzliche Emissionen von 40 Millionen t CO2. Die Elektromobilität leistet sogar mittelfristig keinen sinnvollen Beitrag zur CO2-Reduktion. Darüber hinaus würden sich die Kosten der Umstellung auf Elektromobilität im Zeitraum 2020 bis 2030 auf 47 bis 75 Mrd. EUR belaufen.

Modellrechnungen von Ulrich Schmidt vom Weltwirtschaftsinstitut Kiel (19h) ergeben, dass bei Berücksichtigung des erhöhten Stromverbrauchs durch den Ausbau der Elektromobilität Elektroautos tatsächlich zu 73% höheren Treibhausgasemissionen führen als moderne Diesel-PKWs.

Nach Frank Hennig (19i) wird das Problem noch dadurch verstärkt, dass künftig E-Fahrzeuge vor allem vermutlich ab den Nachmittagsstunden, zur Feierabendzeit und nachts geladen werden. Dadurch wird das Netzgleichgewicht durch zusätzliche Last gestört und muss kurzfristig durch die Primär- und die Sekundärregelungen von konventionellen Kraftwerken ausgeglichen werden. Diese konventionellen Kraftwerke sind vor allem Gas-, Kohle- oder Kernkraftwerke. Windkraft- und Photovoltaikanlagen tragen dazu aufgrund fehlender Regelfähigkeit nicht bei. Die Konsequenz ist für die erhoffte Energiewende bitter: In den Akkus der E-Mobile wird vor allem Kohle- oder Atomstrom landen.

Dazu meint Sepp Reitberger, Chefredakteur von Deutschlands größtem Elektroauto-Portal EFAHRER.com (19j):“ Ließe man über die nächsten Jahrzehnte die Struktur der Stromversorgung mit dummen Kraftwerken am einen Ende und dummen Strom-Verbrauchern am anderen Ende unverändert, und ließe man zu, dass Millionen Elektroautos ausschließlich nachts geladen werden, dann flösse tatsächlich sehr viel Kohle- und Atomstrom in die Auto-Akkus. “

„Die Energiewende muss anders funktionieren ­– und Energieversorger und Autohersteller bereiten sich darauf vor: Autos müssen bevorzugt dann laden, wenn Strom aus erneuerbaren Quellen zur Verfügung steht“. (siehe 2.3.6)

2.3.8.5 Elektroauto, Subventionen und alternative Konzepte

Das Institut für Weltwirtschaft Kiel (IfW Kiel) kritisiert Teile des Im Rahmen des Coronakrise beschlossene Subventionsprogramm als gesamtwirtschaftlich schädlich (19k).

Dies umfasst u.a. die Positionen zur Förderung der Elektromobilität, konkret die Erhöhung der Kaufprämie von 4000 auf 6000 Euro. „Mit der einseitigen und massiven Förderung der Elektromobilität benachteiligt der Staat alternative Antriebskonzepte, die sich möglicherweise später als vorteilhafter erweisen.“

2.3.9 Energieeffizienz und Verbraucherverhalten

Das  Akademienprojekt „Sektorkopplung“ (12) stellt fest, dass in nahezu allen Sektoren immer noch bedeutende Effizienzpotenziale  existieren). Im Gebäudesektor besteht neben dem baulichen Wärmeschutz zur Reduzierung des Raumwärmebedarfs ein erhebliches Potenzial zum Austausch alter Heizkessel, die eine wesentlich geringere Energieeffizienz aufweisen als moderne Heizgeräte. Im Verkehrssektor sind technische Maßnahmen bei bestehenden Antriebskonzepten sind noch nicht ausgereizt, darüber hinaus können nicht-technische, verhaltensbasierte Maßnahmen einen bedeutenden Beitrag zur Energieeffizienz leisten.

Bei reiner Stromerzeugung sind die Wirkungsgrade konventioneller Kraftwerke aktuell auf bestenfalls 65 Prozent (modernes Gaskraftwerk) beschränkt, das heißt, 65 Prozent der Energie des eingesetzten Energieträgers wird in elektrischen Strom umgewandelt. Moderne KWK-Anlagen wandeln bis zu 95 Prozent der eingesetzten Energie in Strom und nutzbare Wärme um.

Neben der Verbesserung der technischen Effizienz von Anlagen und Anwendungen können weitere Maßnahmen, insbesondere aus dem Bereich der Anpassung des Verbraucherverhaltens, zu einer höheren Energieeffizienz beitragen. D.h. zum Beispiel  im Verkehrssektor, dass der Bürger in Zukunft,  wie im Wahlkampfprogramm 2021 der Grünen ausgeführt, weniger seinen privaten PKW benutzt, sondern vermehrt mit den öffentlichen Verkehrsmitteln oder mit dem Fahrrad unterwegs ist.

2.3.10 Akzeptanz durch die Bevölkerung, der entscheidende Faktor

Der Klimaschutzplan der deutschen Bundesregierung sieht vor Deutschlands bis zum Jahr 2050 weitgehend treibhausgasneutral zu machen. In einer Studie des Fraunhofer Instituts werden mögliche Entwicklungen des deutschen Energiesystems untersucht, die bis zum Jahr 2050 zu einer Reduktion energiebedingter CO2-Emissionen um mindestens 95% gegenüber dem Vergleichswert aus dem Jahr 1990 führen (15a)

Für die zu installierenden Leistung für Windkraft und Photovoltaik schlägt die Studie verschiedene Szenarien vor. Der wesentliche Parameter dieser Szenarien -neben technischer Machbarkeit und Kosten-ist das Verhalten und die Einstellung der Bevölkerung , d.h. inwieweit der Bürger die Veränderung der Umwelt ( Windräder, Photovoltaik auf Freiflächen, landwirtschaftlichen Feldern, Dächern und Fassaden von Häusern ) akzeptiert.

Im Szenario Referenz, das einer Kostenoptimierung ohne weitere von außen vorgegebene Randbedingungen folgt, liegt der Anteil von Windenergie bei rund 40 % (263 GW an Land und auf See)  und der Anteil von Photovoltaik bei rund  60 % (414 GW) der insgesamt installierten Leistung im Jahr 2050.

Dies würde bedeuten, dass rund zwei Drittel des von diesen Anlagen insgesamt gelieferten Stroms von Windenergieanlagen stammen und rund ein Drittel aus Photovoltaik (Autor: Beachten Sie den Unterschied zum Verhältnis der Nennleistungen). Bei diesem Szenario und auf der Basis der von Lüdecke durchgeführten Abschätzung erhält man für den Flächenbedarf von etwa 165 000 Windrädern eine Fläche von 57 400 km² und eine Fläche von ca 4 400 km² für die Solarelemente auf Freiflächen, Dächern und Fassaden von Gebäuden. Die Zahl der Windräder würde sich gegenüber dem Park im Jahre 2019 von etwa 30 000 WKA’s um mehr als das 5-fache steigern [Autor].

Im Szenario Inakzeptanz geht man davon aus, dass ein Ausbau  der Industriestruktur dieses Ausmaßes  auf starken Widerstand der Bürger stößt, und legt die zu installierende Leistung für Windenergieanlagen (Summe aus Anlagen an Land und auf See) auf  115 GW und die Leistung für Photovoltaik  auf 645 GW fest. Das bedeutet immer noch eine Verdopplung der heutigen Zahl der WKA’s  und gegenüber dem Szenario Referenz eine erhebliche Steigerung von 50% bei der Photovoltaik.

2.3.11 Die Suffizienz als Teil der Energiewende

Michael Kopatz vom Wuppertaler Institut für Klima, Umwelt, Energie erläutert den Beitrag der sog Suffizienz zur Energiewende (20b).

[…]“Letztlich geht es (Autor:  bei der Suffizienz) also um den achtsamen Umgang mit Ressourcen. Damit können das individuelle Verhalten, der gesellschaftliche Lebensstil, aber auch die allgemeine Wirtschaftsweise gemeint sein.

Zwar haben die Deutschen im Jahr 2013 ein Viertel des Stroms mit Sonne, Wind, Wasser und Biomasse erzeugt und hat sich der Energiebedarf von Gerätschaften und Häusern relativ deutlich verringert, doch absolut betrachtet ist der Ressourcenbedarf kaum gesunken.

Für das Scheitern dieser „absoluten Entkopplung” machen Kritiker die expansive Wirtschaftspolitik verantwortlich. […]

Vielmehr sei auch eine Veränderung der Lebensstile oder, mit anderen Worten, eine sozialkulturelle Transformation notwendig. […]

Suffizienz ist nicht nur individuell, auch die Politik ist gefragt. Und tatsächlich führt nichts an einer verpflichtenden Nachhaltigkeit und damit an einer verbindlich gemachten Suffizienz vorbei. Es müssen Gesetze und Verordnungen den Raum abstecken, innerhalb dessen Freiheit herrschen kann. Notwendig sind auch Leitplanken und Limits für Pferdestärken, Fahrzeuggewicht, Verbräuche von Haushaltsgeräten, Pestizide, Düngemittel, Antibiotika,“

Im Mai 2020 verkündete  ein „Sachverständigenrat für Umweltfragen“, es seien „Maßnahmen unerlässlich, die eine individuelle Pkw-Nutzung unattraktiver machen“ (12a).

„Der Sachverständigenrat für Umweltfragen ist ein siebenköpfiges Gremium und berät die Bundesregierung in Fragen der Umweltpolitik und besteht aus Professorinnen und Professoren verschiedener Disziplinen, so auch aus den Fachgebieten Architektur und Rechtswissenschaften. Sie empfehlen u.a. eine PKW Maut und teurere Parkgebühren in den Städten. Auch unsere Wirtschafts- und Lebensweisen müssen sich verändern, um ökologische Grenzen einzuhalten.“ (12a)

Schon in den ersten Verhandlungen über die CO2 -Bepreisung war der ursprünglich  vorgesehen „Preis“ für 2021 von 10 € pro Tonne  von der Partei „Die  Grünen“ über den Bundesrat  auf 25€ pro Tonne nach oben verhandelt worden sowie die  ursprüngliche 35€-Bepreisung für 2025 auf 55€ .

2.3.11.1 Veränderung von Verhalten und Lebensweise der Bürger

Mit dem Thema Veränderung von Verhalten und Lebensweise der Bürger befasst sich eine Studie des Öko-Instituts im Auftrag des Umweltbundesamts (12b). Im Folgenden werden einige markante Stellen aus der Publikation mit dem Titel  „Mit Suffizient mehr Klimaschutz modellieren“ zitiert:

„ […] Es gibt mehrere Wege zum Klimaschutz. Mit einigen davon, wie etwa Effizienzprogrammen und dem Ausbau erneuerbarer Energien sind wir relativ vertraut. Diese Studie betrachtet mit Suffizienzstrategien einen dritten Weg, der ebenfalls ein hohes Potenzial besitzt, zum Klimaschutz beizutragen. Der Fokus der Studie liegt dabei auf der Modellierung von Suffizienz und stringentem Klimaschutz in längerfristigen Szenarien. […]

Suffizienzstrategien hingegen setzen bei der Änderung von Konsummustern an – wie beispielsweise der Konsum pflanzlicher statt tierischer Proteine oder der Verzicht auf Flugreisen und das Umsteigen auf alternative Fortbewegungsmittel, wie z.B. die Bahn. […]

Unsere Einschätzung beruht insbesondere auf der Beobachtung, dass der Fokus der deutschen Klimaschutzbestrebungen bisher auf der Förderung von Effizienz- und Konsistenzmaßnahmen durch entsprechende Instrumente liegt – bislang jedoch ohne signifikante Emissionsminderungen. […]

Das aus unserer Sicht überzeugendste Argument für Suffizienz ist, dass sie ein großes Potenzial hat, Emissionen einzusparen und damit in großem Maße zur Erreichung der Klimaschutzziele beizutragen. Beispielhaft sei hier auf die Potenzialanalysen in Fischer et al. (2016) verwiesen. […]

Klimaschutzszenario 2050, Szenario KS 95.

Im Auftrag des Bundesumweltministeriums haben Öko-Institut und Frauenhofer-ISI im Szenario „Klimaschutzszenario 95“ (kurz „KS 95“) detaillierte Berechnungen unternommen, um zu zeigen, dass Deutschland sein Klimaschutzziel von 95 % Emissionsminderung bis 2050 gegenüber 1990 erreichen kann.[…]

Bereiche und mögliche Stellschrauben für Suffizienz (im Folgenden Zusammenfassung von Tabelle 1 durch Autor)“

  • Verkehr Mobilität:
    • Verringerung der Neuzulassungen PKW
    •  Besteuerung PKW, Änderung Entfernungspauschale, Energiesteuern, PKW- Maut, Erhöhte Taktfrequenz ÖPNV, Tempo 30 in Städten
    • Größe  PKW 
    • Teuerer Parkraum für größere PKW, eingeschränkte Fahrbahnnutzung für nicht bedarfsorientierte PKW-Größe
    • Reduzierung der zurückgelegten Fahrstrecken 
    • Förderung  Heim-und Telearbeit
    • Reduktion Flugbewegungen
    • Erhöhung Luftverkehrssteuer, Verringerung Subventionen Flugbenzin
  • Landwirtschaft Ernährung
    • Änderung Transferzahlung Landwirte, Reduzierung des Fleisch- und Milchkonsums, maximale Tierzahl pro ha, höhere Stickstoffgrenzwerte, Erhöhung Mehrwertsteuer auf Fleisch, Futtermittelsteuer , Pflicht alles Futter selbst anzubauen , 
  • Gebäude Wohnen & Bau
    • Wohnungen,  weniger stark beheizen , Wohnfläche pro Kopf verringern, Förderung zur Teilung und Tausch und Wohnraum. Besteuerung Wohnraum, weniger Warmwasser benutzen und Warmwassertemperatur reduzieren
    • Elektrogeräte Zahl, Größe und Nutzung dem Bedarf anpassen, Teilen von Geräten,   
    • Reduzierung des Stromverbrauchs durch Reduzierung des elektrischen Wäschetrocknens, Reduzierung des Fernsehkonsums, Förderung von sharing- Angeboten, und Reparaturservices […]
    • „Zunächst wird empfohlen die in Tabelle 1 aufgezeigten Möglichkeiten zur Verankerung von Suffizienz in Modellen in jedem Fall zu prüfen und zumindest gedanklich zu berücksichtigen. Dabei sollte das Ziel sein, Suffizienz möglichst konsistent in allen Bedürfnisfeldern entsprechend der Szenariodefinition zu berücksichtigen. Ein Weglassen zentraler Parametrisierungen von Suffizienz sollte in den Studien zumindest begründet werden.“

 Zum Thema „Suffizienz“ und zum deutschen Bundesklimaschutzgesetz siehe auch Kapitel 6 „Die große Transformation“ .

2.3.11.2 Umfragen zur Akzeptanz: Jung/Alt und Deutschland /Ausland

In den Medien wird regelmäßig der „Aufschrei der Jugend“ gegenüber der Gleichgültigkeit der älteren Generation beim Thema Klimawandel thematisiert, ebenso taucht immer wieder die Rolle Deutschlands als Vorbildfunktion für andere Nationen beim Klimaschutz auf.

In einer Umfrage der Europäischen Investitionsbank (EIB) wurde 30 000 Menschen zur Bedeutung des Klimawandels in Zeiten der Coronakrise befragt (12c). Die Europäische Investitionsbank ist die Bank der Europäischen Union und einer der wichtigsten Geldgeber für den Klimaschutz. Die Studie erfasste 30 000 Menschen in der EU, USA und China.

Eine der zentralen Fragen war

“ Was sind nach Ihrer Meinung die 3 größten Herausforderungen denen die Bürger Ihres Landes aktuell gegenüberstehen?“

In allen Ländern, bis auf China, wurde als größtes Problem die Covid-19-Pandemie genannt, die auch von 68 Prozent aller Deutschen als die derzeit wichtigste Sorge angesehen.

Was nun den Klimawandel anlangt, so befindet er sich europaweit mit 33% auf Platz 4 der Sorgenliste. Allein in Deutschland steht er jedoch mit 51% immer noch an zweiter Stelle.

Auch hinsichtlich der Sorge um die wirtschaftliche und finanzielle Lage nimmt Deutschland eine Sonderposition ein. Während dies hierzulande 43% als eines der größten Probleme betrachten, wird das in der EU von 69% der Interviewten als große Herausforderung eingestuft.

Abgesehen von Deutschland überwiegt praktisch überall neben der Pandemie die Angst vor Wirtschaftsflaute, Finanzkrise und Arbeitslosigkeit. Die entsprechenden Prozentwerte liegen in den meisten Ländern fast doppelt so hoch wie die Angst vor dem Klimawandel. In großen Nachbar- und Partnerländern wie Frankreich, Italien oder Schweden zählen nur noch rund ein Drittel der Menschen den Klimawandel unter die Top-3 der größten Herausforderungen.

Auch zum Unterschied der Positionen jung gegenüber alt gibt die Befragung interessante Aufschlüsse. In Deutschland wurde der Kampf der Klimaschützer als ein Kampf jung gegen alt stilisiert. Dabei galt ohne belastbare Untersuchungen die Annahme, dass nur junge Menschen ein Interesse an der Weltenrettung hätten, den Alten hingegen sei das Thema wegen ihrer begrenzten Restlebensdauer egal.

Auch mit diesem Glauben räumt die EIB-Umfrage auf: „Besonders besorgt über den Klimawandel zeigt sich die Altersgruppe ab 65 Jahre“, stellt die EIB in ihrer Zusammenfassung fest: „In dieser Altersgruppe sehen 63 Prozent im Klimawandel eine der drei größten Herausforderungen für Deutschland. Bei den 15-29-Jährigen und den 30-49-Jährigen sind es lediglich 50 Prozent beziehungsweise 40 Prozent.“

2.3.12 Regulierungen und Gesetze

Die deutsche Bundesregierung sowie die EU Kommission verlangen seit Kurzem die Klimaneutralität bis spätestens 2050. Der Begriff Klimaneutralität ist nicht klar definiert, noch die Methode ihrer Berechnung . Manchmal wird darunter CO2-Emission Null verstanden. Aus den der obenstehenden Grafik „Gesamtkosten der Dekarbonisierung“ zugrunde liegenden, mit der Emissionsminderung exponentiell steigenden Werten ergibt eine lineare Extrapolation (Näherung !) Gesamtkosten für die Nullemission in Deutschland von etwa 10 Billionen €. Das entspricht dem 3-fachen Bruttosozialprodukt.

Da nach Meinung von Experten (21b) die Energiewende in der von der Bundesregierung heute geplanten Weise weder zeitmäßig  noch kostenmäßig zu realisieren ist, ist zu befürchten, dass die Politik versuchen wird durch gesetzliche Auflagen , d.h. über  Vorschriften und Verbote, die „Klimakatastrophe“ abzuwenden, z.B. Steuern für den Ausstoß von Klimagasen, Einschränkung der Fahrerlaubnis und Besteuerung von Fahrzeugen mit Verbrennungsmotoren, Abgaben zur Finanzierung öffentlicher Verkehrsmittel, Verteuerung von Reisen mit Flugzeug und Kreuzfahrtschiffen, Ernährungsvorschriften, usw.

2.3.12.1 Das Steuerbare-Verbrauchseinrichtungen-Gesetz

Das BMWi beschreibt den Gesetzentwurf mit „Entwurf eines Gesetzes zur zügigen und sicheren Integration steuerbarer Verbrauchseinrichtungen in die Verteilernetze und zur Änderung weiterer energierechtlicher Vorschriften.“

Klaus-Dieter Humpich erklärt und kommentiert die Bedeutung und Konsequenzen der neuen Verordnung    (114p)

„All unsere Gebäude sind an das Niederspannungsnetz (400 V) angeschlossen. […]

Damit nun nicht jedes Haus einen eigenen Trafo braucht, sind die Gebäude wie Perlen auf einer Kette an jeweils ein Kabel des Niederspannungsnetzes angeschlossen. […]

Der Gedanke ist simpel: Wenn man stets den Verbrauch überwacht, kann man das Kabel bis an seine Grenzen belasten. Nähert man sich den Grenzen, werden einzelne Verbraucher zwangsweise abgeschaltet. […]

In diesem Gesetzentwurf steht, dass die „Leistungsreduzierung“ nicht mehr als zwei Stunden pro Tag dauern darf. […]

 

Bei jeder Flaute müssen ausgewählte Verbraucher für die gesamte Dauer abgeschaltet werden, um wenigstens eine eingeschränkte Notversorgung aufrechterhalten zu können. […]

In diesem Gesetzentwurf geht es jedoch um die totale Überwachung: Der aktuelle Verbrauch jedes „Smart-Meter“ – umgangssprachlich Stromzähler – soll permanent an den Netzbetreiber übertragen werden. Selbstverständlich nur für Zwecke des Netzbetriebs und streng „datengeschützt. […]

Ist das bei Elektromobilen so viel anders? Auch dort wird man nachladen, wenn das absehbar nötig wird. […]

Wird jetzt durch unvorhergesehene Drosselungen die Ladezeit völlig unkalkulierbar, dürfte das ein weiteres Argument gegen den Kauf eines Elektromobils werden.“

Die Welt schreibt zu diesem Thema (114q)

„Das Bundeswirtschaftsministerium will Stromanbietern durch eine Änderung des Energiewirtschaftsgesetzes die Möglichkeit einräumen, große Verbraucher wie Elektroautos und Wärmepumpen zeitweise ferngesteuert vom Netz zu nehmen. Das geht aus dem Gesetzentwurf des Bundeswirtschaftsministeriums hervor, der WELT AM SONNTAG vorliegt.“

2.3.13 Deutschland als Vorreiter, nirgendwo Nachahmer

Der Däne Bjørn Lomborg ist außerordentlicher Professor an der Copenhagen Business School. Er äussert sich zum Pariser Klimaabkommen und zur deutschen Energiewende (15b). (hinter der Zahlschranke: (15b1)

„Deutschland ist stolz auf seine Vorreiterrolle beim Klimaschutz. Durch große Anstrengungen zur Senkung des Energieverbrauchs und vor allem durch den massiven Ausbau erneuerbarer Energien (Wind, Solar und Biomasse) wurden die deutschen CO2-Emissionen seit 1990 um rund 17 Prozent abgebaut. (Autor: Stand 2013) […]

Doch der Preis für diese Energiewende ist gigantisch – während die Auswirkungen auf die globale Erwärmung kaum messbar sind. […]

Allein die bestehenden Solaranlagen werden in den nächsten 20 Jahren mit 100 Milliarden Euro subventioniert  (Autor: EEG Umlage), obwohl diese derzeit nur 0,5 Prozent des Energiebedarfs decken. […]

Trotz dieser Milliardensummen wird Deutschlands Beitrag zum Klimaschutz unfassbar gering bleiben. […] Setzt man diese CO2-Verringerung (Autor: durch Photovoltaik)  in die aktuellen Klimamodelle ein, ergibt sich ein Temperaturrückgang um weniger als 0,0001 Grad Celsius bis zum Jahr 2100. […]

Insgesamt werden alle deutschen Anstrengungen zum Ausbau erneuerbarer Energien (Autor: durch Windkraft, Fotovoltaik und Biomasse)   […] zu einer Temperaturabsenkung von weniger als 0,001 Grad Celsius bis zum Ende des Jahrhunderts führen; das heißt, der globale Temperaturanstieg verzögert sich bis zum Jahr 2100 rein rechnerisch um knapp 16 Tage.[…]

Im Schnitt bezahlen die Deutschen 132 Euro, um durch Ausbau der erneuerbaren Energien eine Tonne CO2 einzusparen. Verglichen damit sind Schäden, die eine Tonne CO2 anrichtet, weitaus geringer.

In seriösen Kostenschätzungen werden die Schäden, die eine Tonne CO2 beispielsweise durch den Anstieg des Meeresspiegels verursacht, mit rund vier Euro beziffert. Kühl gerechnet folgt daher: Es wäre 30-mal billiger, sich an den ohnehin unvermeidbaren Klimawandel anzupassen, als zu versuchen, die globale Erwärmung durch viel zu teure Aufwendungen für regenerative Energien um wenige Tage hinauszuzögern.

Kein Wunder also, dass Deutschland mit seiner Energiewende nirgendwo auf der Welt Nachahmer findet. […]

Der derzeitige Emissionsrückgang durch Ausbau der erneuerbaren Energien, für den Deutschland Hunderte Milliarden Euro ausgibt, entspricht dem Anstieg der chinesischen Emissionen in den folgenden 19 Tagen, nachdem Sie diesen Artikel gelesen haben.“

Björn Lomborg stellt weiter fest (15k)

Deutsche Energiewende kostet 520 Milliarden Euro bis 2025

Eine Schätzung beziffert die Gesamtkosten der Energiewende für das erste Quartal dieses Jahrhunderts auf 520 Milliarden Euro. Durch die Energiewende liegt das verfügbare durchschnittliche deutsche Einkommen jedes Jahr um fast zwei Prozent niedriger, als es ohne sie gewesen wäre.

In der gesamten EU beliefen sich die Mehrkosten für Solar- und Windenergie im Jahr 2018 auf erstaunliche 55 Milliarden Euro. Weltweit schätzt die Internationale Energieagentur, dass die Subventionen für Solar- und Windenergie von 2007 bis 2040 mehr als 5000 Milliarden Dollar betragen werden.

[…]

Viele glauben, eine Lösung sei die Stromspeicherung. Aber das löst nur einen Teil des Problems für die wenigen Länder, die über viel Wasserkraft verfügen, wie z. B. Schweden. Sie können Wasserkraft als Batterie nutzen, um die zusätzlichen Kosten für erneuerbare Energien zu senken – indem sie Wasser hinter Dämmen stauen, während sie Wind- und Solarenergie nutzen, und die gespeicherte Wasserenergie durch Generatoren freisetzen, wenn Sonne und Wind schwach sind.

Heutige Batterien sind viel zu klein und zu teuer. Derzeit könnte der gesamte Batteriespeicher in Deutschland den durchschnittlichen deutschen Stromverbrauch 89 Sekunden lang decken. Eine sinnvolle Ergänzung der Solarspeicherung verdreifacht die Kosten im Idealfall, kann allerdings auch das Zehnfache der Kosten übersteigen.

Aber verringern die erneuerbaren Energien wenigstens den CO₂-Ausstoß? Ja, die massiven Investitionen in Solar- und Windenergie haben die deutschen Emissionen von CO₂ im Jahr 2019 um 118 Millionen Tonnen reduziert. Doch allein diese Einschnitte werden die globalen Temperaturen bis zum Ende des Jahrhunderts um weniger als die Hälfte eines Zehntausendstel Grades senken – zum Preis von 18 Milliarden Euro.

Die Krux mit dem Emissionshandel

Selbst wenn man das in den nächsten dreißig Jahren für mehr als eine halbe Billion Euro fortsetzen würde, würden die Temperaturen so um etwas mehr als ein Tausendstel Grad sinken. Jeder Euro ist schlecht investiert, weil dafür nur der Gegenwert von 19 Cent in langfristigen, globalen Klimaschäden vermieden wird.

Darüber hinaus ignoriert der deutsche Versuch, CO₂ bei der Stromerzeugung zu reduzieren, das EU-Handelssystem, das bereits feste Ziele hat. Zusätzliche Einsparungen von Deutschland führen lediglich dazu, dass mehr Zertifikate für andere Länder übrig bleiben, ohne die Gesamtmenge an CO₂ zu reduzieren. Der einzige wirkliche Vorteil der deutschen Einsparungen sind niedrigere klimapolitische Kosten für andere Länder. Die Auswirkung aufs Klima ist eigentlich gleich null.

Die Energiewende wird oft als beispielhaft für die Welt angeführt. Offensichtlich kann Deutschland den Klimawandel nicht allein beheben, aber wenn diese Politik andere dazu inspirieren könnte, klug zu handeln, könnte sie immens viel Gutes bewirken.

 

Doch wenn überhaupt, dann war Deutschland bisher kein Vorbild, dem man folgen sollte, sondern eher eine Warnung: Nachdem das Land Hunderte von Milliarden ausgegeben hat, bezieht es immer noch weniger als fünf Prozent der Gesamtenergie (nicht nur Strom) aus Sonne und Wind. Das ist nicht nachhaltig.

Das liegt im Wesentlichen daran, dass bei der Energiewende hauptsächlich in Technologie von gestern investiert wurde. Technik, von der wir wissen, dass sie längst noch nicht kosteneffizient ist. Damit wird man niemanden überzeugen, vor allem nicht in den ärmeren Teilen der Welt.

Was wir brauchen, sind bessere Technologien, um zukünftige grüne Energie billiger als mit fossilen Brennstoffen zu produzieren. Wir brauchen beispielsweise Wind- und Solarenergie, die erheblich günstiger ist als heute (um die versteckten Kosten zu decken), sagenhaft günstigere Energiespeicher, viel preiswertere Kernenergie oder enorm billige CO₂-Abscheidung.

[…]. Wie Bill Gates sagt: Um den Klimawandel zu beheben, „fehlen uns etwa zwei Dutzend großartige Innovationen“.

2.3.14 Ökostrom ist nicht billig

„Angesichts von drastisch gestiegenen Energiepreisen hat die grüne Europaabgeordnete Jutta Paulus auf den Ausbau der erneuerbaren Energien gepocht.[…] Schon heute seien Erneuerbare die günstigste Energieform“. (15l)

Dazu Claudia Kemfert vom Deutschen Institut für Wirtschaftsforschung (DIW)  „Die stark gestiegenen Gaspreise sind […]ein hausgemachtes Problem. Deutschland habe sich zu stark von russischem Gas abhängig gemacht und gleichzeitig den Ausbau erneuerbarer Energien nicht schnell genug vorangetrieben, sagte Kemfert“ (15m)

 Björn Lomberg fragt sich dagegen ob Erneuerbare Energien auf die Dauer wettbewerbsfähig sind (15k):

„Wir hören permanent, dass Wind- und Solarenergie die Welt erobern. Sie seien kostenlos und – so sagt man uns – billiger als fossile Brennstoffe. Aber warum gibt Deutschland dann in diesem Jahr (Autor: 2020) 18 Milliarden Euro für die Subventionierung von Solar- und Windenergie aus?

Technisch gesehen stimmt es, dass eine zusätzliche Kilowattstunde Strom, die mit den günstigsten und effektivsten neuen Wind- und Solaranlagen erzeugt wird, billiger ist fossile Brennstoffe. […]

Aber nur wenn die Sonne scheint, wird Solarstrom erzeugt, Windkraft nur, wenn der Wind weht. Keine Sonne, kein Wind, kein Strom. Wenn es dunkel und windstill ist, steigt der Preis für Wind- und Solarstrom ins Unermessliche.

In Wirklichkeit sind die Windturbine und das Solarpanel nur der sichtbare Teil der Kosten für erneuerbare Energien. Wir müssen aber auch den gesamten Rest des Energiesystems bezahlen, um die nur zeitweise verfügbare Solar- und Windenergie auszugleichen. […]

Die Einspeisung ist dabei ein bekanntes Problem: Der größte Teil der Windenergie kommt aus dem Norden Deutschlands, der größte Teil der Solarenergie aus dem Süden. Das macht große Übertragungsleitungen erforderlich, die Solar- und Windenergie wiederum etwas teurer machen, vielleicht um einen halben bis einen Cent pro kWh.

Solaranlagen überschwemmen den Markt

Die höchsten Kosten ergeben sich jedoch aus der Tatsache, dass der gesamte Solar- und Windstrom meist zur gleichen Zeit ankommt, was ihn weitaus weniger wertvoll macht. Es ist nicht überraschend, dass Photovoltaikanlagen nur während des Tages Strom liefern, am meisten gegen Mittag. […]

Da aber immer mehr Solaranlagen gebaut werden, wird der Markt mit immer wertloserer Solarenergie überschwemmt. Verglichen mit dem durchschnittlichen Strompreis verkaufen deutsche Solaranlagen seit 2013 ihren Strom mit immer größeren Verlusten

In ähnlicher Weise wird Windkraft in der Regel zur gleichen Zeit erzeugt und kommt oft nachts an, wenn sie wenig Wert hat. Spätestens seit 2001 verkaufen deutsche Windkrafterzeuger ihren Strom unter dem durchschnittlichen Strompreis, und der Verlust nimmt immer mehr zu ( Autor: negativer Strompreis, siehe Einschub).  […][…] Ironischerweise führt das dazu, dass der Rest des Elektrizitätssystems teurer wird. Ein Kohlekraftwerk, das das ganze Jahr über hätte laufen können, wird jetzt oft abgeschaltet und muss ineffizient hoch- und heruntergefahren werden, um Solar- und Windenergie zu nutzen.

[…]Das ist der Grund, warum Solar- und Windenergie nur scheinbar billiger sind. Die Solarenergie ist zwar technisch in der Lage, eine neue Kilowattstunde für 5,2 Cent zu produzieren, aber das ist mit zusätzlichen Kosten verbunden.

Es kostet extra, um Variabilität und Einspeisung in den Griff zu bekommen. Und weil der Strom gleichzeitig ankommt, braucht er im Wesentlichen eine Zwei-Cent-Subvention, nur um mit Kohle, Gas und Atomkraft vergleichbar zu sein.

Aus diesem Grund zeigen Studien, dass die gesamten versteckten Kosten bei signifikanter Erzeugung von Solar- und Windenergie 2,5 bis 3,5 Cent/kWh betragen. Tatsächlich dürften neue Solar- und Windkraftanlagen nur etwa die Hälfte ihres derzeitigen besten Preises kosten, bevor sie tatsächlich günstiger als fossile Brennstoffe sind.

Autor: In Zukunft werden die Kraftwerke zur Erhaltung der Stromstabilität durch Speicher und Elektrolyseanlagen ersetzt werden, was die Kosten der Erneuerbaren Energien relativ hoch bleiben lässt.

Um die erneuerbaren Energien voranzutreiben, erhöhen Politiker auf der ganzen Welt ungeduldig die Subventionen. Deutschland wird in diesem Jahr über das EEG 24 Milliarden Euro für die Förderung aufwenden, nachdem es allein durch die EEG-Umlage seit 2000 rund 200 Milliarden Euro ausgegeben hat. […]

(Autor: Die 4 folgenden Grafiken erhellen die Situation: Die erste Grafik zeigt den Anstieg  der Erneuerbaren Energien in Deutschland , Grafik 2 die stetige Erhöhung  der Strompreise mit den Jahren und Grafik 3 illustriert die Entwicklung der EEG-Umlage d.h. die  Differenz zwischen dem Einkaufspreis für Strom und den Zahlungen für die Einspeisevergütung an den Erzeuger. Schliesslich demonstriert die  letzte Grafik dass die beiden Windstromländer Dänemark und Deutschland Strompreisspitzenreiter in Europa sind.)

Erneuerbare Energien: Anteile in den Sektoren Strom, Wärme und Verkehr

Durchschnittlicher Strompreis für Haushalte

Entwicklung EEG-Umlage

Strompreise in Europa

So zahlen die Länder wie Deutschland und Dänemark, die auf Erneuerbare Energien setzen, in Europa die bei weitem höchsten Strompreise  und Deutschland liegt um etwa 60% höher als das Atomstromland Frankreich.

Lomborg schreibt: „Aus diesem Grund sind in ganz Europa die Stromkosten für Haushalte um so höher, je höher der Anteil von Wind- und Solarenergie ist.“

Einschub negative Strompreise

Typischerweise treten negative Strompreise dann auf, wenn die volatilen Stromerzeuger (Wind und PV) überproportional viel Strom einspeisen, beispielsweise bei hoher Sonneneinstrahlung und gleichzeitig starkem Wind

Der Thinktank Agora, der die Bundesregierung berät,  findet in seiner Studie  „ Negative Strompreise
Ursachen und Wirkungen“
:

„Negative Strompreise haben ihre Ursache nicht in einem
Überschuss an Erneuerbaren Energien, sondern in der
mangelnden Flexibilität von Kernkraftwerken, Braunkohle-Kraftwerken und KWK-Anlagen.“

Autor: Es ist erstaunlich, dass ein Land wie Frankreich das seine Energie in Kernkraftwerken und Kohlekraftwerken erzeugt, sehr viel weniger Stunden mit negativem Strompreis zu verzeichnen hat als Deutschland.

2.3.15 Atomausstieg macht die Energiewende teuer

Mittlerweile weisen Photovoltaik- (PV) und Windanlagen sehr günstige Stromgestehungskosten auf, aber ihre Stromerzeugung ist nicht steuerbar und sie tragen somit kaum zur Versorgungssicherheit bei. Im Auftrag von Greenpeace analysiert der Consultant „Energy Brainpool“ die Kosten der für die in Zukunft geplanten  Atommeiler der Visegradstaaten und vergleicht sie mit den Kosten für steuerbare -erneuerbare -Energiekraftwerke (seE-Kraftwerke) (19s).

Diese Analyse kann als Modell für den Ersatz der abgeschalteten Atomkraftwerke in Deutschland durch Strom aus erneuerbaren Energien betrachtet werden

Dieses steuerbare Kraftwerkssystem erneuerbarer Energien wird  als seE-Kraftwerk bezeichnet und ist in Abbildung 4c veranschaulicht. Wird der nicht direkt nutzbare („Überschuss-“) Strom für den Prozess der Elektrolyse von Wasser genutzt, so entstehen  Sauerstoff und Wasserstoff. Letzterer wird nun mit Kohlenstoffdioxid angereichert, bei dieser Methanisierung entsteht unter Energieeinsatz Methan. Methan und zum Teil auch Wasserstoff können in das Gasnetz eingespeist und in Gasspeichern eingespeichert werden. Verschiedene Gaskraftwerkstechnologien können Methan und zum Teil auch Wasserstoff nutzen, um Strom bedarfsgerecht bereitzustellen, die Steuerbarkeit des Systems ist gewährleistet.

Steuerbare erneuerbare Energien als Alternative zur Kernkraft (energybrainpool.com)

Bild 4c: Prinzip eines steuerbaren-erneuerbaren-Energiekraftwerks (seE-Kraftwerk)

Die Studie spricht von einem Ergebnis von vergleichbaren Stromgestehungskosten zwischen der Erzeugung in Kernkraftwerken und in einem seE-Kraftwerk. Konkret liegen die Kosten für den seE-Strom  zwischen ca 110€/MWh und 130€/MWh, die Literaturwerte für Atomstrom bewegen sich zwischen 55 und 89 €/MWh . Für 2 aktuelle Projekte in Frankreich und GB , Flamanville und Hinkley Point erwartet die Studie 90 und 120 €/MWh.

Stellt man also in Rechnung dass der Grüne Strom wegen seiner Fluktuation Speicher und Rückverstromungsprozesse benötigt, so ist er nach dieser Modellrechnung auf keinen Fall günstiger als Atomstrom. Dies widerspricht offensichtlich den von NGO‘s, Politikern und Medien verbreiteten Meldungen wie „Strom aus Atomkraftwerken ist um ein Vielfaches teurer als der aus erneuerbaren Quellen“ (19t). (Autor: Hierbei werden nur die Kosten den fluktuierenden Wind- und Sonnenstrom betrachtet und die Kosten für die Versorgungssicherheit (Gaskraftwerke, Speicher) nicht berücksichtigt).

2.3.16 Klimapolitik: Vermögensverlust von fast einem Jahrzehnt

Björn Lomborg erstellt eine Kosten-Nutzen-Rechnung zur angestrebten Klimaneutralität Deutschlands (15i). Er betrachtet dabei nicht nur das Energiesystem (Siehe 2.2.3) sondern die gesamte Wirtschaft. Der Großteil der errechneten Kosten stammt alsoi nicht aus der Subventionierung des einzelnen Solarpanels oder der Windturbine oder der dafür benötigten Notstromversorgung. Sie entstehen durch die unvermeidliche Verlangsamung des gesamten Wirtschaftswachstums als Folge von teurerer und weniger zuverlässiger Energie.

Er stützt sich dabei auf eine Studie EMF 28 (15j), die die Auswirkung der Klimapolitik auf das Bruttoinlandsprodukt der EU und seiner Mitgliedsländer betrachtet. Sie  schätzt die Kosten für eine 80-prozentige CO₂-Reduktion bis 2050, was  immer noch weniger ambitioniert ist als die von Deutschland angestrebte Klimaneutralität.

Björn Lomberg schreibt:

“Leider gibt es für Deutschland so gut wie keine umfassenden ökonomischen Schätzungen zur Klimapolitik oder deren Auswirkungen. Die einzige mir bekannte Studie stammt aus der Stanford-Studie zur EU-Klimapolitik aus dem Jahr 2013[…]

Es kommt zu dem Ergebnis, dass Deutschland bis 2030 jedes Jahr 4,3 Prozent des Bruttoinlandsprodukts oder 161 Milliarden Euro aufgrund des geringeren Wachstums verlieren wird. […]

Die klimapolitischen Kosten machen jede deutsche vierköpfige Familie um 8100 Euro pro Jahr ärmer.

Bis zum Jahr 2040 werden die jährlichen Kosten auf 351 Milliarden Euro ansteigen. […]

Jede Familie wird nun jedes Jahr um 18.200 Euro schlechter gestellt sein.

Im Jahr 2050 wird Deutschland trotzdem reicher als heute sein, aber nicht so reich, wie es ohne seine Klimapolitik gewesen wäre. […]

Es wird jährliche Einbußen in Höhe von 643 Milliarden Euro geben, so dass jede Familie um 34.400 Euro schlechter gestellt sein wird.

Im Jahr 2050 wird Deutschland mit seiner strikten Klimapolitik so wohlhabend sein wie im Jahr 2041 ohne Klimapolitik. Deshalb verliert Deutschland in den nächsten 30 Jahren fast ein Jahrzehnt an Wachstum.“

Aufsummiert belaufen sich nach den obigen Angaben von Lomborg die Kosten der deutschen Klimapolitik zwischen 2020 und 2050 auf etwa 12 Billionen Euro, was für jede 4-köpfige Familie eine durchschnittlich jährliche Gehaltseinbuße von rund 20 000 Euro Euro bedeutet.

2.3.17 Wie man ein Land ruiniert

„Wie man ein Land ruiniert, schreibt der Volkswirt Daniel Stelter, kann man an Deutschland studieren (126a) .“

Er analysiert die die politischen Entscheidungen der jüngsten Vergangenheit, ob sie zu einer Vermehrung oder Vernichtung des künftigen Wohlstands führen. So untersucht er die Ergebnisse der Europolitik, der unkontrollierten Zuwanderung 2015, den ausufernden Sozialstaat, das Kaputtsparen der Bundeswehr, die verfallende Infrastruktur, den Niedergang der deutschen Bildung und die Energiewende. Seine Zusammenfassung:

“Überschlägig addieren sich die offenen und verdeckten Lasten auf mehrere hundert Prozent des deutschen BIP (Autor: BIP 2019 etwa 3,5 Billionen Euro). Dies kann sich kein Staat der Welt leisten. Wir sind auf dem besten Weg Deutschland zu ruinieren“

2.3.18  Kernkraft, Deutschland weitgehend isoliert

Statista (19u) stellt fest, dass 2020 weltweit 440 Kernreaktoren in etwa 30 Ländern in Betrieb sind und sich rund  weitere 100 in der Planungsphase befinden .Die meisten dieser zur Zeit geplanten AKW’s  werden in Asien mit seiner schnell wachsenden Wirtschaft und seinem steil ansteigenden Elektrizitätsbedarf entstehen

https://de.statista.com/statistik/daten/studie/152153/umfrage/anzahl-der-sich-in-betrieb-befindenden-atomkraftwerke-weltweit/

Anzahl der betriebsfähigen Reaktoren nach Ländern 2020

(Weltweit gesamt 440)

Atomkraftwerke in Planung nach Ländern 2020

Mit dem Ausstieg aus der Atomkraft steht Deutschland weitgehend alleine da. Angeführt wird die Liste der Länder, in denen neue Atomkraftwerke gebaut werden, von China, gefolgt von Russland und Indien (19v).

Dazu bemerkt die US Energy Information Administration: Obwohl die Nuklearenergie nur ein kleiner Teil des chinesischen Energieportfolios darstellt, fördert China aktiv die Kernkraft als saubere, effiziente und verlässliche Quelle der Elektrizitätsproduktion.

Auch in Europa setzen viele Länder – auch und gerade im Hinblick auf die Klimaziele des Pariser Abkommens – auf die Kernenergie als unverzichtbaren Bestandteil des Strommixes. So machte der französische Präsident Emmanuel Macron erst in der vergangenen Woche noch einmal deutlich, dass Frankreich an der Atomenergie festhalten will. „Unsere ökologische und energetische Zukunft hängt auch von der Kernenergie ab“, sagte er (19v) .

Im Osten Europas setzt nicht nur Russland auf sauberen Nuklearstrom, auch die Visegradstaaten haben sich dafür entschieden. Neben den 14 Reaktoren, die in Tschechien, der Slowakei und  Ungarn bereits aktiv sind , befinden sich 10 weitere Meiler in Planung. Auch Polen hat sich entschlossen seine weitgehen auf Kohle basierende Stromerzeugung weitgehend auf Kernenergie umzustellen (19s).

Im Norden Europas planen Grossbritannien und die Niederlande eine Wiederbelebung der Atomkraft. Der britische „Aktionsplan zur Entkarbonisierung“ sieht den Bau neuer Mini-Atomreaktoren vor. 15 dieser von Rolls-Royce geplanten Reaktoren mit einer Kapazität von 440 MW – genug um eine 500.000 Einwohner-Stadt zu versorgen -sollen in den kommenden 9 Jahren ans Netz gehen. (siehe auch unten: TerraPower von Bill Gates)

Auch die Niederlande planen neue AKW’s. Wirtschaftsminister Eric Wiebes stellte dem Parlament in Den Haag die Ergebnisse einer Studie der Beratungsgesellschaft Enco vor, die einen zügigen Aufbau neuer Nuklearkapazitäten empfiehlt. „Die Analyse zeigt, dass Kernenergie für die Zeit nach 2030 eine der kosteneffizientesten Optionen bei CO2-freier, regelbarer Kraftwerksleistung darstellt“, schreibt Wiebes (19w).

Japan will ebenfalls viele der nach dem Unfall von Fukushima abgeschaltete Atommeiler wieder in Betrieb nehmen und bis 2050 den Anteil des Atomstroms am Energiemix von heute 6 auf 22 Prozent steigern. Im Nahen Osten haben die Vereinigten Arabischen Emirate vergangenen August als erstes  arabisches Land ein AKW in Betrieb genommen.

Auf der anderen Seite des Atlantiks setzt der künftige US-Präsident Joe Biden ´gleichfalls auf eine Beibehaltung der Kernenergie. Im Wahlkampf hat er sich für den Bau von kleineren und mobilen Mini-Reaktoren ausgesprochen. Das von Bill Gates gegründete Unternehmen TerraPower will Atomkraftwerke mit einer Leistung von je 345 Megawatt errichten (entsprechend dem britischen Konzept, siehe oben).

Die Entwicklung der Atomenergie mit Horizont 2050 wird von der International Atomic Energy Agency (IAEA) abgeschätzt, siehe Bild 4d (19x). Sie stützt sich dabei auf 2 Studien, zum einen auf den International Energy Agency`s World Energy Outlook 2019 und zum anderen auf den US EIAI International Energy Outlook 2019 .

Die Bekämpfung des Klimawandels ist eine Triebfeder die Atomkraft beizubehalten und ihren Umfang  weiter auszudehnen. Die International Energy Agency gibt an, dass durch die Verwendung der Kernenergie in den letzten 50 Jahren etwa 60 Gigatonnen an CO2 Emissionen vermieden wurden.

Bild 4d: Entwicklung des jährlich produzierten Stroms sowie der Anteil von Atomstrom von 2019 bis 2050

Die folgenden Grafiken 4e aus dem World Energy Outlook 2019 (19y) geben einen Überblick über den Anteil der verschiedenen Erzeugungsprozesse an der zukünftigen Stromgewinnung

Bild 4e: Produzierte Elektrizität für 2 verschiedene Szenarien und unterschiedliche Erzeugungsprozesse, 2018-2040

Im Szenario „ Erklärte (fesgelegte) Energiepolitik“ ( Stated Policies Scenario) wird ein sehr stark wachsender Bedarf an Elektrizität in den Schwellenländern angenommen  (Autor: günstige stabile Elektrizitätsversorgung aus fossilen Brennstoffen). Generell zielen die Politik der Regierungen, die Marktbedingungen sowie die verfügbaren Technologien gemeinsam in Richtung einer Elektrizitätsproduktion aus emissionsarmen Erzeugungsprozessen.

Im Szenario „Nachhaltige Entwicklung (Sustainable Development Scenario) ist der Anteil der Elektrizität am Energieverbrauch besonders hoch, hauptsächlich verursacht durch starke Elektromobilität und Erzeugung von grünem Wasserstoff. Besondere Anstrengungen für Erneuerbare Energien, Kernenergie und die Carbon Capture Technologie machen die Versorgung mit Elektrizität sehr schnell emissionsärmer und reduzieren die CO2 Emissionen der Energieerzeugung bis 2040 um ¾.

2.4. Der Klimawandel in den Medien

Am 19. 6. 2019 veröffentlicht der US Fernsehsender CNN das folgende Foto

mit der Meldung , dass das Bild eines  Hundeschlittens im Wasser in Grönland ein weiterer Beweis (neben hungernden Eisbären, geschrumpften Gletschern, gestrandeten Walrossen und ausgetrockneten Seen ) für die fortschreitenden Klimakatastrophe sei. Foto und Meldung gingen weltweit durch die Medien.

Einige Tage später folgte, etwas diskreter, die Präzisierung, dass der dänische Meteorologe Olsen  (Dänisches Meteorologisches Institut in Kopenhagen) die vermeintlich brisante Botschaft seines von ihm gemachten Fotos relativiert. Er stimme damit überein, dass das Bild „eher einen symbolischen, denn wissenschaftlichen“ Wert habe, twitterte der Forscher. In  der abgebildeten Region kämen Situationen wie auf dem Foto öfters vor. Das Eis an der abgebideten Stelle sei sogar besonders dick,  so dass das Wasser des geschmolzenen Schnees nicht durch eventuell vorhandene Löcher abfließen kann.

Dieses Ereignis ist kennzeichnend für die heutige Diskussion des Klimawandels. Einerseits eine sehr präsente Öffentlichkeit  aus Politikern, Medien, NGO’s und Bürgern, die in jedem Wetterereignis ein Anzeichen für eine bevorstehende Klimakatastrophe sieht, andererseits, weniger sichtbar, ein nicht geringer Teil der Klimawissenschaftler der die Schlussfolgerungen des IPCC’s nicht teilt.
Einen sehr guten Einblick in die Problematik dieser Auseinandersetzungen der verschieden Gruppen von Wissenschaftlern,  Politikern und Wirtschaftsorganisationen gibt in hervorragender Weise Dr. habil Harald Kehl, ehemals am Institut für Ökologie der TU Berlin (21).

2.4.1 Die Fukushima Lüge

In Kapitel 1.1 wurde erwähnt, dass der Bericht der Weltgesundheitsbehörde WHO über die Fukushima Katastrophe am 11.3.2011 feststellt, dass kein einziger der Todesfälle direkt durch radioaktive Strahlung verursacht wurde und, dass auch die Zahl der langfristig möglichen Krebstoten statistisch wohl nie auffällig werden wird. Die über 18 000 Toten waren ausschließlich Opfer des Erdbebens und des dadurch ausgelösten Tsunamis. 3 Monate nach der Katastrophe steigt das Hochtechnologieland Deutschland aus der Atomenergie aus und beschließt bis spätestens 2022 alle existierenden Meiler abzuschalten.

Die Fakten sind noch einmal in Tichys Einblick (2a) „Fukushima und die deutsche Angstkompetenz“ zusammengefasst. Darüber hinaus werden die Hintergründe sowie die Argumentation durch Politik und Presse näher beleuchtet.

Von der Furcht gedrängt aus der Landesregierung   Baden Württembergs bei der Wahl Ende März 2011 auszuscheiden, veranlasste die CDU einen  Beschluss der schwarz-gelben Bundesregierung herbeizuführen aus der Atomenergie auszusteigen (13.März 2011). Am 27 März verfehlt die CDU trotzdem ihr Wahlziel und verliert die Ministerpräsidentschaft in BW (2b)

In der Folgezeit zeichnen Politiker und Medien immer wieder ein verzerrtes Bild  der Atomkatastrophe in Fukushima , die , so heisst es, für die mehr als 18 000 Toten verantwortlich sei .“Wie Medien Deutschlands Atomausstieg herbeischrieben“ resümiert Axel Bojanowski auf Welt online (2c).

Hans Mathias Kepplinger von der Universität Mainz stellt in einer Studie fest, dass die Medien in Deutschland schon in den Jahren vor Fukushima die Abneigung gegenüber der Kernenergie auf besondere Weise schürten. „Je eindeutiger die Journalisten eines Blattes von 1965 bis 1986 gegen Kernenergie Stellung nahmen, desto eher ließen sie Experten zu Wort kommen, die sich ebenfalls dagegen aussprachen“, berichtet Kepplinger über seine Journalistenbefragungen von 1965 bis 1986. „Deutsche Medien gingen sehr selten auf die spezifischen Ursachen der Katastrophe ein, sie erweckten den Eindruck, die Reaktorkatastrophe bei Fukushima sei ein Beleg für die generellen Risiken der Kernenergie“, schreibt Kepplinger. Deutsche Medien hätten nach Fukushima zwischen neun- und 18-mal so viele Forderungen nach einem Atomausstieg erhoben wie Medien in Großbritannien und Frankreich.

Die Äußerungen von Politikern und Medien, die unter Verdrehung der Tatsachen versuchten die Furcht vor der „zerstörerischen Atomenergie“ bei der deutschen Bevölkerung wach zu halten sind umfassend in Tichys Einblick zusammengefasst (2d).  Neben der Bundesregierung, dem Bundesministerium für Umwelt und Naturschutz, dem Bündnis 90/Die Grünen, Regierungssprecher Seibert, Ministerpräsident Söder, sowie den Öffentlichen Medien, SWR2, NDR und Deutschlandfunk findet sich eine große Zahl von Presseorganen auf der langen Liste der Falschinformanten. Unvergessen Claudia Roth die im März 2013 auf Facebook zuerst die Atomkatastrophe für 16 000 Tote verantwortlich machte und dann die Knappheit des veröffentlichten Facebooktextes als  Erklärung der Faktenverdrehung angab. Spektakulär auch die Sendung von n-tv vom 11.3. 2014 wo die Reporterin mit einer für den Schutz vor radioaktiver Strahlung nutzlosen Atemschutzmaske ihren Bericht abliefert (siehe Foto unten).

(Kommentar Autor): Der Grund für diese gefälschte Kommunikation dürfte die Absicht sein, den Deutschen die Gründe für eine in dieser Form einzigartige Energiepolitik zu erklären, eine Politik die Deutschland in der Welt in gewisser Weise isoliert hat und außerdem gigantische Kosten sowie eine Einschränkung der Lebensgewohnheiten der Bürger mit sich bringen wird (siehe auch 2.3.11).

2.4.2 Verschwörungstheorien oder  Gefälligkeitswissenschaft?

Auf Cicero online liest man am 18. Februar 2021 (21h) :

„Der renommierte Physiker Tobias Unruh beklagt eine Vereinnahmung der Wissenschaft durch die Politik im Zuge der Corona-Pandemie.[…]

Und so mutet es extrem befremdlich an, dass die Leopoldina, also unsere Nationale Akademie der Wissenschaften, in einer Stellungnahme zur Coronavirus-Pandemie schreibt: „Trotz Aussicht auf einen baldigen Beginn der Impfkampagne ist es aus wissenschaftlicher Sicht unbedingt notwendig, die weiterhin deutlich zu hohe Anzahl von Neuinfektionen durch einen harten Lockdown schnell und drastisch zu verringern.“ […]

Es ist unerträglich, dass sich eine unserer renommiertesten wissenschaftlichen Einrichtungen unter dem Deckmantel ihrer wissenschaftlichen Expertise für knallharte politische Forderungen der derzeitigen Bundes- und Landesregierungen einsetzt.(…) „

Einige Tage vorher hatte die Welt online veröffentlicht:

„Das Bundesinnenministerium spannte in der ersten Welle der Corona-Pandemie im März 2020 Wissenschaftler mehrerer Forschungsinstitute und Hochschulen für politische Zwecke ein (21i). Es beauftragte die Forscher des Robert-Koch-Instituts und anderer Einrichtungen mit der Erstellung eines Rechenmodells, auf dessen Basis die Behörde von Innenminister Horst Seehofer (CSU) harte Corona-Maßnahmen rechtfertigen wollte.[…]

 Eine Gruppe von Juristen hat den E-Mail-Verkehr in einer mehrmonatigen rechtlichen Auseinandersetzung mit dem Robert-Koch-Institut erstritten.

Im E-Mail-Wechsel bittet etwa der Staatssekretär im Innenministerium, Markus Kerber, die angeschriebenen Forscher, ein Modell zu erarbeiten, auf dessen Basis „Maßnahmen präventiver und repressiver Natur“ geplant werden könnten.

Die Wissenschaftler erarbeiteten dem Schriftverkehr zufolge in nur vier Tagen in enger Abstimmung mit dem Ministerium Inhalte für ein als geheim deklariertes Papier, das in den folgenden Tagen über verschiedene Medien verbreitet wurde.

Darin wurde ein „Worst-Case-Szenario“ berechnet, laut dem in Deutschland mehr als eine Million Menschen am Coronavirus sterben könnten, würde das gesellschaftliche Leben so weitergeführt wie vor der Pandemie.“

Anfang Februar 2021 veröffentlicht das Potsdamer Institut für Klimafolgenforschung PIK eine Studie die nahelegt, dass der Klimawandel eine wichtige Rolle bei der Entstehung der Corona Pandemie spielt (21j).

„ Globale Treibhausgasemissionen haben im Laufe des letzten Jahrhunderts den wahrscheinlichen Ursprungsort von SARS-CoV-2 in Südchina zu einem Hotspot für Coronaviren gemacht, die von Fledermäusen übertragen werden. Klimatische Veränderungen in dieser Region haben das Wachstum von Waldgebieten befördert, die Fledermäusen geeignete Habitate bieten. Dies ist das Ergebnis einer neuen Studie von Wissenschaftlerinnen und Wissenschaftlern der Universität Cambridge, des Potsdam-Instituts für Klimafolgenforschung (PIK) und der Universität Hawai’i-Manoa

 Die heute in der Zeitschrift Science of the Total Environment veröffentlichte Studie liefert einen Mechanismus, der dem Klimawandel eine direkte Rolle bei der Entstehung von SARS-CoV-2 zuweisen könnte – dem Virus, das die COVID-19-Pandemie verursachte.“ (https://www.sciencedirect.com/science/article/pii/S0048969721004812?via%3Dihub )

Das PIK wird zu etwa gleichen Teilen von Bund und Land finanziert. Das Förderungsbudget betrug 2019 etwa 30 Millionen Euros. Wissenschaftler des PIK waren maßgeblich an der Entwicklung des Konzepts der Großen Transformation sowie des Pariser 2°C Temperaturerhöhungslimits beteiligt.

Aus der Rolle der Klimaerwärmung als möglicher Faktor der Coronaentstehung machen die Medien eine Gewissheit:

Covid-19 Wie der Klimawandel zur Corona-Pandemie führte,  MDR Wissen (21k) .

Etwa zum gleiche Zeitpunkt veröffentlicht die Universität Hamburg eine Studie, die nicht in das Weltbild der Klimaschützer und Neugestalter der Weltordnung passt.

In einer umfangreichen Analyse zum Ursprung des Corona-Virus kommt der Nanowissenschaftlers Prof. Wiesendanger zum Ergebnis,  dass die Ursache der Pandemie ein Laborunfall des virologischen Instituts in Wuhan sein könnte und nicht der örtliche Wildtiermarkt (21l).  Diese Feststellung stösst auf scharfen Protest des Mainstreams u.a. von Fernsehjournalisten und dem  AStA der Universität Hamburg, der erklärt: „Die ‚Studie‘ von Herrn Wiesendanger der Uni Hamburg entspricht nicht den wissenschaftlichen Standards, die wir von einer Universität erwarten. Sie spielt stattdessen nur Verschwörungstheoretiker*innen in die Hände und schürt anti-asiatischen Rassismus.“

Das virologische Labor in Wuhan wurde von der Weltgesundheitsorganisation WHO und anderen offiziellen Stellen immer wieder ausgeschlossen. Die Hamburger Studie führt an, dass mehrere wissenschaftlich Originalpublikationen belegen, dass eine  Forschergruppe am „Wuhan Institute of Virology“ über viele Jahre hinweg nicht nur natürlich vorkommende Coronaviren untersucht hat, sondern diese gentechnisch manipuliert hat mit dem Ziel, diese für den Menschen ansteckender und gefährlicher zu machen.

2.5 Was ist gesichert, was ist noch zu klären?

Nach Kehl kann als gesichert gelten, dass auf die markante Abkühlung zwischen etwa dem 15. und 19. Jahrhundert (kleine Eiszeit)  eine mehr oder weniger kontinuierliche Erwärmung folgte. So sind die Temperaturen in den letzten ca. 150 Jahren global  um 0.6 ± 0.2 K gestiegen (2004) und erreichten zu Beginn des 21. Jahrhunderts etwa die Temperaturen der Mittelalterlichen Warmzeit (s. auch 3.3.1 der globale Temperaturanstieg).

Es bestehe kein Zweifel daran, dass menschliche Tätigkeit einen negativen Einfluss auf die Atmosphäre haben könne und CO2 klimawirksam sei und eine nachhaltige Umweltpolitik national und international höchste Priorität haben sollte. Umstritten sei dagegen, in welchem Umfang der heutige Temperaturanstieg auf den durch menschliche Aktivitäten gestiegenen CO2 – Gehalt der Atmosphäre zurückzuführen sei ( anthropogenic global warming : AGW). Mittlerweile bezweifeln  etliche Wissenschaftler die zentrale Rolle des Kohlendioxids im komplexen Klimagefüge (s. unten, Einfluss von Sonnenaktivität, Wasserdampf und Wolken).

Die AGW- Hypothese nach einer Veröffentlichung des IPCC aus dem Jahre 2018  (21a):

„Human activities are estimated to have caused approximately 1.0°C of global warming above pre-industrial levels, […] „

„Es wird angenommen, dass die menschlichen Aktivitäten  etwa 1.0°C globaler Erwärmung gegenüber dem vorindustriellen Niveau verursacht haben.“

Diese Auffassung wird in Deutschland durch die Mehrzahl der Politiker und den Medien vertreten.  Die Stellungnahme der Wissenschaftler, die die AGW- Hypothese für nicht richtig halten wird bis auf wenige Ausnahmen nicht publik gemacht. Im Kapitel  2.7 werden die Aussagen einer kleinen Auswahl der  durchaus zahlreichen AGW- kritischen Wissenschaftler zitiert (siehe auch die wissenschaftlichen Arbeiten über den Sonneneinfluss in Abschnitt 4.2.2).

2.5.1 Die Rückkopplung von Wasserdampf und Wolken

Von den Gegnern der CO2- Hypothese wird kritisiert, dass die Klimaprognosen des IPCC von Temperaturerhöhungen bis zu 5°C auf der Annahme einer zu starken positiven Rückkopplung zwischen dem relativ geringen CO2 Treibhauseffekt und der stärkeren Treibhauswirkung des Wasserdampfs beruhen (22). Diese Modelle hätten jedoch nicht einmal die gegenwärtige Entwicklung  korrekt wiedergibt wie John Christy Anfang 2016  bei der Anhörung des  Subcommittee on Space, Science, and Competitiveness des US Repräsentantenhauses über die Größenordnung des menschlichen Einflusses auf das globale Klima darstellt (23).


Bild 5: Die grünen und blauen Messpunkte sind das Ergebnis von Satelliten- und Ballontemperaturmessungen, die rote Kurve ist die Voraussage des Klimamodells.

John Christy ist Distinguished Professor of Atmospheric Science und Director of the Earth System Science Center an der University of Alabama in Huntsville und  entwickelte  zusammen mit Roy Spencer einen auf Satellitendaten basierende Temperaturmessung der Atmosphäre. In den Jahren 1992 bis 2007 arbeitete Christy an den Sachstandsberichten des IPCC.

Christy ist der Ansicht, die Klimamodelle würden den globalen Temperaturanstieg gegenüber den Messdaten zu hoch angeben. Er bestreitet nicht den Temperaturanstieg als solchen, aber er sieht darin keine Bedrohung für die Menschheit.

Eine Auswertung von Messdaten des Gleichgewichts zwischen der auf die Erdatmosphäre einfallenden Strahlungsenergie der Sonne  und der von der Erde abgestrahlten kurzwelligen und langwelligen Strahlung, ergeben nach Lindzen, R. S. und Choi, Y-S  eine negative Rückkopplung zwischen CO2 und Wasserdampf und eine deutlich kleinere Temperaturerhöhung als die IPCC Berechnungen (24). Die Messdaten sind Satellitenmessungen im Rahmen des ERBE- Projekts (Earth‘s Radiation Budget Experiment).

2.5.2 Die Klimasensitivität und Rückkopplungseffekte

„Die Klimasensitivität der Erde wurde oft als der „Heilige Gral“ der Klimawissenschaft angesehen. Es gibt keine andere Maßzahl, die soviel über den Klimawandel aussagt wie die Klimasensitivität. Sie ist ein Maß für die Änderung der mittleren globalen Erdoberflächentemperatur in Folge einer Verdopplung der atmosphärischen CO2-Konzentration. Der Wert der Klimasensitivität liegt nach Einschätzung des fünften Sachstandsberichts des Intergovernmental Panel on Climate Change (IPCC) wahrscheinlich zwischen 1,5 und 4,5 °C und umfasst somit eine Unsicherheit, die sich seit den frühen Untersuchungen der Klimasensitivität in den 1970er Jahren nicht verringert hat.“ (25)

Bild 6: Das Gegenstrahlungsmodell des natürlichen Treibhauseffekts (Kiehl and Trenberth, 1997).

Mauritsen und Stevens stellen fest (26), dass in den aktuellen Klimamodellen eine Klimasensitivität  zwischen 2 und 4.6 K angenommen wird sowie eine schwache Zunahme der weltweiten mittleren Niederschläge. Die aktuellen Beobachtungen des Klimas ergeben jedoch eine Klimasensitivität, die am unteren Ende dieses Bereichs liegt und dass einige Änderungen im Wasserkreislauf falsch eingeschätzt werden. Diese Diskrepanzen lassen es möglich erscheinen, dass einige wichtige Rückkopplungen in den Klimamodellen fehlen. Eine zu den bisherigen Annahmen  widersprüchliche Hypothese schlägt vor, dass sich in der tropischen Atmosphäre die wolkenfreien und trockenen Bereiche bei einer Klimaerwärmung (verursacht z.B. durch CO2) ausdehnen und somit einen größeren Anteil infraroter Strahlung  ins All austreten lassen. Dieser sog. Iriseffekt würde eine negative Rückkopplung darstellen, die nicht in den Modellen enthalten ist. Die Autoren finden, dass durch die Berücksichtigung dieses Effekts bei Erhöhung der CO2 Konzentration die Ergebnisse der Simulationen sowohl für die Temperatur wie auch für den Wasserkreislauf  besser mit den Beobachtungen übereinstimmen.

Scafetta (27) schreibt in seinen Schlussfolgerungen „…….obwohl die Gleichgewichts-Klimasensitivitäten ECS bei CO2-Verdopplung in den Klimamodellen (General Circulation Models) weit um einen Mittelwert von 3°C schwanken, so zeigen neuere Studien, dass diese Werte zu hoch sind. Seit dem Jahre 2000 gibt es eine Tendenz „….(in den Studien)…“ kleinere Klimasensitivitäten zu finden (siehe Abb. ).Die jüngsten Studien schlagen …..Gleichgewichts-Klimasensitivitäten ECS von weniger als 2°C vor…..So legen die die Ergebnisse nahe, dass die Klimamodelle (GMC’s) die wirkliche menschengemachte globale Erwärmung um das 2- bis 3-fache vergrößern. Es könnte notwendig sein die Treibhausgas-Theorie einer gründlichen Überprüfung zu unterziehen.“

Bild 7: Zusammenstellung der im Laufe der Jahre veröffentlichten Klimasensitivitäten ECS bei CO2 Verdopplung.
Quelle: http://www.iieta.org/sites/default/files/Journals/IJHT/35.Sp01_03.pdf

2.5.3 Zusammenhang globale Temperatur und CO2 im Lauf der Erdgeschichte

Bild 8: Geologische Zeitskala : CO2-Konzentration und Temperaturschwankungen

Die obenstehende  Grafik zeigt in einer Gegenüberstellung die Entwicklung von Temperatur und CO2 im Laufe der Erdgeschichte (28). Obwohl in der Perm-Periode das CO2 Niveau niedriger als heute war (teilweise weniger als 210 ppm, aktuell 400ppm), war die Temperaturerhöhung deutlich höher (ca 10°C ) als der aktuelle Anstieg von ca 1°C
Auf der Webseite “Real Climate” erscheint 2014 ein Artikel “Can we make better graphs of global temperature history ?“ (29), der darauf verweist , dass die obige Kurve (28) im Laufe der Zeit ständige Veränderungen erfahren hat und nicht auf den neuesten Daten beruht.

Professor W. Jackson Davis, Leiter des amerikanischen Umweltinstituts ESI analysiert im Jahre 2017 den CO2/T Zusammenhang mit Hilfe von in den letzten 10 Jahren veröffentlichten Proxymessungen der Temperaturen und der atmosphärischen Kohlendioxid-Konzentrationen während des Phanerozoikums (~ 540 Millionen Jahre bis heute) (30).

Übersetzung durch den Autor: „Die Temperatur der Proxy-Datenbank umfasst Tausende von Messungen durch Hunderte von Forschern für die Zeitperiode von vor 522 Millionen Jahren bis heute, während die Proxies des atmosphärischen CO2 während des Äons (Erdzeitalters) des Phanerozoikums 831 Messungen umfassen, die voneinander unabhängig von Hunderten von Forschern für den Zeitraum von vor 425 Millionen Jahren bis heute veröffentlicht wurden. Solch ein bisher nicht existierendes Datenvolumen über das Klima des Phanerozoikums ermöglicht die bis heute genaueste empirische Erfassung der Relation zwischen der atmosphärischen CO2-Konzentration und der Temperatur des Klimas der Vergangenheit, was das Ziel dieser Studie ist.“

Definition: Ein Klimaproxy ist ein indirekter Anzeiger des Klimas, der in natürlichen Archiven wie Baumringen, Stalagmiten, Eisbohrkernen, Korallen, See- oder Ozeansedimenten, Pollen oder menschlichen Archiven wie historischen Aufzeichnungen oder Tagebüchern aufgezeichnet wurde (Wikipedia)

Bild 9: Klima im Verlauf der Erdgeschichte (rote Kurve :Temperatur, grüne Kurve CO2-Konzentration)

δ18O bzw. Delta-O-18 ist ein Maß für das Verhältnis der stabilen Sauerstoff-Isotope 18 O und 16 O. Ein Anstieg des δ18O um 0,22 ‰ entspricht einer Abkühlung um 1 K. (Wikipedia) https://de.wikipedia.org/wiki/%CE%9418O

Zur obigen Abbildung kommentiert Davis: „Proxies der atmosphärischen CO2-Konzentration und der Temperatur über der gleichen Zeitachse (Bild oben) zeigen eine offensichtlich Entkopplung und sogar eine gegenläufige Beziehung. Z. b. eine Spitze der CO2-Konzentration bei etwa 415 Mybp tritt bei einem Temperatur-Plateau um 445 Mybp auf. Ähnlich fällt ein CO2 –Peak bei 285 Mybp mit einem Temperaturplateau bei etwa 280 Mybp, und damit mit der Permokarbon Eiszeit (in der Abbildung mit dem Label 2 bezeichnet) zusammen. In jüngeren Perioden, wo die die Auflösung der Datenerfassung höher ist, ist offensichtlich der gleiche Trend zu beobachten. Die CO2 Konzentration nimmt eine Spitze bei etwa 200 Mybp während einer Abkühlperiode an, genauso wie ein schwächerer CO2 Peak bei etwa 37 Mybp. Die kürzeren Abkühlungsperioden des Phanerozoikums, mit den Labels 1-10, scheinen keinen bestimmten Zusammenhang mit Schwankungen der atmosphärischen CO2-Konzentration zu haben“
Im Kapitel Schlussfolgerungen stellt Davis fest : “…..das wichtigste Ergebnis dieser Studie ist, dass über fast während des gesamten Phanerozoischen Klimas weder die atmosphärische CO2-Konzentration noch der der Strahlungsantrieb ΔRFCO2. mit T korreliert ist“.

Definition: Strahlungsantrieb (radiative forcing) ist die Differenz zwischen absorbierter  Sonneneinstrahlung und Energierückstrahlung in den Weltraum. Der CO2- Strahlungsantrieb ist die durch eine CO2-Änderung verursachte Variation, wenn alle anderen Einflussgrößen (z.B. Sonneneinstrahlung) konstant gehalten werden.

Davis erklärt den weitgehend fehlenden Zusammenhang zwischen Temperatur und CO2- Konzentration damit, dass der Strahlungsantrieb und damit die Temperaturerhöhung eine logarithmische Funktion der Kohlendioxidkonzentration ist, und bei den sehr hohen ppm Werten des Phanerozoikums bis über 5000 ppm , eine CO2 Erhöhung keinen Einfluss auf die Temperatur hätte. Mit abnehmendem CO2 Gehalt zum Ende des Phanerozoikums nimmt der marginale Strahlungsantrieb (die Änderung des Strahlungsantriebs bei einer minimalen Änderung des CO2) wohl zu, doch die Studie zeigt dass in diesen jüngsten Klimaepochen die Temperatur mit zunehmendem CO2 abnahm.. CO2 war nicht der Haupttreiber des Klimas des frühen Känozoikum.

Betrachtet man den sehr viel jüngeren Zeitraum zwischen 11 000 und 200 (Beginn der Industrialisierung), so ist festzustellen: In diesem Zeitraum existiert keine Korrelation und schon gar keine Kausalität. Die beiden Kurven unten in Bild 10  stellen die Ergebnisse von Eiskernbohrungen  dar, die in den Dateien GISP2 (Temperatur) und EPICA Dome C (CO2) der US National Oceanic and Atmospheric Administration (NOAA) zusammengefasst sind (31).
(Der jüngste Temperaturanstieg des Holozäns fehlt , da die verfügbaren Daten der Eiskernbohrungen nicht bis ins 20. Jahrhundert reichen).

Bild 10: The upper panel shows the air temperature at the summit of the Greenland Ice Sheet, reconstructed by Alley (2000) from GISP2 ice core data. The time scale shows years before modern time. The rapid temperature rise to the left indicate the final part of the even more pronounced temperature increase following the last ice age. The temperature scale at the right hand side of the upper panel suggests a very approximate comparison with the global average temperature (see comment below). The GISP2 record ends around 1854, and the two graphs therefore ends here. There has since been an temperature increase to about the same level as during the Medieval Warm Period and to about 395 ppm for CO2. The small reddish bar in the lower right indicate the extension of the longest global temperature record (since 1850), based on meteorological observations (HadCRUT3). The lower panel shows the past atmospheric CO2content, as found from the EPICA Dome C Ice Core in the Antarctic (Monnin et al. 2004). The Dome C atmospheric CO2 record ends in the year 1777.

Nach der voranstehenden Graphik war der Zeitraum von vor 7000 bis 8000 Jahren sehr warm (Klimaoptimum Holozän), wärmer als heute.

„Vor 8 000 Jahren wurde die Erde von einem Interglazialklima bestimmt, das wärmer und feuchter war als es heutzutage in vielen Teilen der Welt ist. Tropenwälder in Afrika (und wahrscheinlich auch in Asien ) waren flächenmäßig ausgedehnt und Wüstenregionen in Afrika und Asien stark reduziert.“ (32)

Als das Klima wärmer war, war die globale Ausdehnung der Wüsten geringer, weil die Oberfläche der Ozeane, nämlich 70% der Erdoberfläche, sich ebenso wie das Land erwärmte und dadurch mehr temperaturbedingte Wasserverdampfung und Regenfälle auf dem Land verursacht wurden. (31, Watts)

Die Wissenschaftlichen Arbeiten in (33) untersuchen die die Eiszeit-/Warmzeitzyklen der letzen ca. 400 000 Jahre. Sie stellen jeweils eine Korrelation fest, die Temperaturanstiege sind regelmässig von einer CO2 -zunahme begleitet. Dabei steigt immer zuerst die Temperatur an, der CO2-Anstieg  folgt mit einer Verzögerung von ca. 500 bis ca 1500 Jahren.

Caillon stellt bei seinen Untersuchungen (34) fest, dass beim Temperaturanstieg des Eiszeitendes Termination III (240 000 Jahre vor heute) in der Antarktis die CO2-Konzentration erst verzögert anwächst, während es sich auf der Nordhalbkugel umgekehrt verhält.

2.6 Die politische Bedeutung des IPCC und sein Selbstverständnis

„Der Intergovernmental Panel on Climate Change (IPCC) ist eine Institution der Vereinten Nationen. In seinem Auftrag tragen Wissenschaftlerinnen und Wissenschaftler weltweit den aktuellen Stand der Klimaforschung zusammen und bewerten anhand anerkannter Veröffentlichungen den jeweils neuesten Kenntnisstand zum Klimawandel. Der IPCC bietet Grundlagen für wissenschaftsbasierte Entscheidungen der Politik, ohne jedoch konkrete Lösungswege vorzuschlagen oder politische Handlungsempfehlungen zu geben.“ (35))

Da der IPCC  keine eigene Forschungsarbeit leistet, sind die ausgewählten Ergebnisse und Empfehlungen fortlaufend Gegenstand erbitterter Diskussionen.

So drängen mehr als 300 Wissenschaftler in einer Petition initiiert von Richard Lindzen, Professor Emeritus Massachusetts Institute of Technology, Präsident Trump die USA aus dem Pariser Klimavertrag zurückzuziehen, da die CO2 Reduktionsmaßnahmen wissenschaftlich nicht berechtigt sind und außerdem soziale und wirtschaftliche Gefahren beinhalten. (36) Die Klimawarner begegnen den Skeptikern meist mit der Behauptung dass 97% der Klimawissenschaftler mit der Schlussfolgerung eines menschengemachten Klimawandels übereinstimmen. Diese Zahl ist das Ergebnis einer Studie mit einer verzerrten Auswertungsmethode (37) und wird von führenden Klimawissenschaftlern wie z.B. Nils-Axel Mörner (54) nicht geteilt. Von den Verfechtern der CO2-Hypothese werden jene Wissenschaftler, welcher dieser Einschätzung skeptisch gegenüber stehen, als sogenannte „Klimaskeptiker“, „Klimakritiker“ oder „Klimaleugner“ (denier, AGW heretics) charakterisiert (21) (Die Klimadebatte und die neue „Verantwortung“).

Kehl schreibt: „Dass Skepsis gegenüber offiziellen Verlautbarungen des IPCC und seinen Protagonisten angebracht ist, zeigen Falschmeldungen, Manipulationen und dubiose Wissenschaft wie die durch Datenpiraterie an die Öffentlichkeit gelangte E-Mailkorrespondenz zwischen führenden Vertretern der AGW-Hypothese .“ (s.a. Anhang)
° Zweifel säte das vom IPCC  prognostizierte  Verschwinden des Himalaya Gletschers bis zum Jahre 2035. Die Nachforschungen eines kanadischen Geografen ergaben, dass die Information aus einer Veröffentlichung eines russischen Gletscherexperten stammte , der allerding als Datum nicht 2035 sondern 2350 angegeben hatte (37 a).
° Spektakulär ist die sog Hockeystick- Diskusssion:
Der IPCC Bericht 2001 enthält eine Temperaturkurve des US-Klimaforschers Michael Mann, die vor dem 20. Jahrhundert einen flachen Verlauf zeigt und dann einen steilen Anstieg. Die Temperaturänderungen der mittelalterlichen Wärmeperiode und der kleinen Eiszeit, die im IPCC-Bericht 1990 noch vorhanden sind, tauchen nicht mehr auf. Dieses Diagramm wurde als letztes und wichtigstes Beweismittel für eine menschengemachte Klimaerwärmung gewertet.  (21) (Rekonstruktion der mittleren Temperatur auf der Nordhalbkugel in den vergangenen 1000 bis 2000 Jahren). Nach massiven Vorwürfen erwies sich, dass die Daten manipuliert worden waren (38).
° Der e-Mail Skandal im Jahre 2009 zeigt anhand  von gehackten Mails aus dem Climate Research Unit Hadley Center, wie prominente Klimaforscher sich darüber unterhalten,  wie sie mit Kritikern umgehen, wie Datensätze so verändert werden, dass sie zur offiziellen Theorie passen, und wie kritische Journalisten boykottiert werden sollen (39, 40).

So schreibt H: Kehl weiter : „Gleichwohl werden aus gutem Grunde die widersprüchlichen Verlautbarungen und Erwartungen von Vertretern der „CO2-Hypothese“ intensiver hinterfragt, da deren – wohl oft von Ideologie und Geltungssucht geprägten – Äußerungen von hoher gesellschaftspolitischer Bedeutung sind und besonders in den Medien zu hysterischen Reaktionen geführt haben und die Klimafrage von einigen Politikern und Wissenschaftlern zum „Schicksalsthema“ der Menschheit schlechthin hochstilisiert wird.“ (21) (Die Klimadebatte und die neue Verantwortung).

Ein Interview mit Stephen Schneider,  Klimawissenschaftler und langjähriger Mitarbeiter des Weltklimarats (IPCC), illustriert das Dilemma der Klimaexperten (21) (Die Klimadebatte und die neue Verantwortung) „Einerseits sind wir als Wissenschaftler ethisch an die wissenschaftliche Methode gebunden, d. h. die Wahrheit zu sagen, die ganze Wahrheit und nichts als das – einschließlich all unserer Zweifel, Vorbehalte, Wenn’s, Und’s, und Aber’s. Andererseits sind wir nicht nur Wissenschaftler, sondern auch menschliche Wesen. Und wie die meisten Menschen würden wir die Welt gerne als besseren Ort sehen, was in diesem Kontext bedeutet, dass wir das Risiko eines potentiell katastrophalen Klimawandels verringern wollen. Um das zu tun benötigen wir eine breite Unterstützung, wir müssen die Öffentlichkeit dazu bringen, sich eine Vorstellung davon zu machen. Dazu sind viele Medienberichte notwendig. Also müssen wir ängstigende Szenarien liefern, einfache, dramatische Äußerungen machen, und Zweifel, die wir vielleicht haben, wenig erwähnen. Diese „ethische Doppelbindung“, in der wir uns oft befinden, kann durch keine Formel gelöst werden. Jeder von uns muss entscheiden, was das richtige Gleichgewicht ist zwischen effektiv sein und ehrlich sein. Ich hoffe, dass es auf beides hinausläuft.“
(deutscher Wortlaut Wikipedia: https://de.wikipedia.org/wiki/Stephen_Schneider)

Weitere Kommentare, die zeigen welchen Einfluß und welche Bedeutung von  Politik und  Umweltorganisationen dem IPCC und ähnlichen Umweltprojekten zugeordnet werden, siehe (41):
„Ein weltweiter Klimaschutzvertrag muß geschlossen werden, auch wenn es keinen wissenschaftlichen Beweis für die Existenz des Treibhauseffektes gibt“ (Richard Benedick, President of the National Council for Science and the Environment, zitiert von Dixy Lee Ray in ihrem Buch Trashing the Planet (1990))

„Wir feuern Bilder ab statt Raketen – Meinungsbomben, die von den Medien geliefert werden“ (Robert Hunter, Greenpeace, Sink the Rainbow, von John Dyson, London, 1986)

H. Kehl bemerkt (21) (Die Klimadebatte und die neue Verantwortung): „Und es sollte nicht allzu sehr verwundern, wenn nicht nur vermutet wird, dass die gegenwärtige – minimale – globale Temperaturzunahme, mit dem Aufhänger CO2 – Anstieg, nur ein probates Argumentations-Vehikel ist zur „politisch korrekten“ Durchsetzung eben dieser eher energie-wirtschaftlichen Intentionen, auch unter Inkaufnahme zutiefst antidemokratischer Zielsetzungen“

Nach dem Kopenhagener Klimagipfel berichtet der Spiegel (42): „Um eine global nachhaltige Lebensweise zu realisieren, bräuchten wir umgehend eine „große Transformation“, fordert etwa Hans Joachim Schellnhuber, Direktor des Potsdamer Instituts für Klimafolgenforschung. Was genau damit gemeint ist, bleibt oft vage. Ein Teil, wenn nicht sogar das Herzstück dieser großen Transformation ist in den Augen mancher Klimaforscher – und anderer Wissenschaftler, die sich an der Diskussion beteiligt haben – ein anderes Politikregime: „Wir benötigen eine autoritäre Regierungsform, um den Konsens der Wissenschaft zur Treibhausgasemissionen zu implementieren,“ argumentieren die Australier David Shearman and Joseph Wayne Smith in ihrem Buch „The Climate Change Challenge and the Failure of Democracy“.

Der bekannte Klimaforscher James Hansen fügt ebenso resigniert wie ungenau hinzu, dass im Fall der Klimaveränderung der demokratische Prozess nicht funktioniere.

2.7 Einige prominente Wissenschaftler, die die AGW Hypothese nicht teilen

John Christy, ( Ph.D. Wissenschaften der Atmosphäre, Distinguished Professor of Atmospheric Science und Director of the Earth System Science Center an der University of Alabama in Huntsville), erklärt vor einem Gremium des House of Representatives der Vereinigten Staaten in Bezug auf die Klimamodelle (23):

“These models failed at the simple test of telling us ‘what’ has already happened, and thus would not be in a position to give us a confident answer to ‘what’ may happen in the future and ‘why‘. “

“The information in this figure (Autor: Bild 5 oben) provides clear evidence that the models have a strong tendency to over-warm the atmosphere relative to actual observations.  On average the models warm the global atmosphere at a rate 2.5 times that of the real world.”

 Horst Malberg, (Professor em. Für Meteorologie und Klimatologie, ehem. Direktor des Meteorologischen Instituts der Freien Universität Berlin), analysiert den Anteil der Sonneneinwirkung an der globalen Erwärmung (80):

Für die vielen Treibhaustheoretiker ist der anthropogene Treibhauseinfluss die primäre Ursache der globalen und regionalen Erwärmung. Die natürlichen Klimaprozesse sollen ihrer Meinung nach nur noch eine untergeordnete Rolle beim Klimawandel spielen. […]

In Anbetracht eines sich seit Jahrmillionen auf allen Zeitskalen permanent wandelnden Klimas muss man sich fragen, wie realistisch es ist, dass die natürlichen Klimaprozesse bei der globalen Erwärmung im Vergleich zum anthropogenen Treibhauseffekt nur noch eine sekundäre Rolle spielen sollen. Dieses gilt insbesondere für den Einfluss der Sonne.

[…] Der veränderliche solare Energiefluss ist mit an Sicherheit grenzender Wahrscheinlichkeit der dominierende Antrieb im Klimasystem der Erde.

[…] Damit folgt: Der Temperaturanstieg in den letzten 150 Jahre kann maximal zu einem Drittel durch den anthropogenen Treibhauseffekt verursacht worden sein. Der anthropogene Treibhauseffekt wird somit in den Klimamodellen des UN–Klimareports 2007 wesentlich überschätzt.“

Horst-Joachim Lüdecke, (Physiker für Strömungsmechanik und emeritierter Professor an der Hochschule für Technik und Wirtschaft des Saarlandes)  deckt in seinem Buch (21b) umfassend die verschiedenen wissenschaftlichen, gesellschaftlichen und politischen Aspekte der Energiewende und des Klimawandels, speziell in Deutschland, ab.

Zur wissenschaftlichen Basis der AGW-Hypothese und zur Diskussion ihrer Anhänger und Kritiker schreibt er:

„Einer der berühmtesten Physiker des 20. Jahrhunderts und Nobelpreisträger, Richard Feynman, verdeutlichte dieses moderne Paradigma wie  folgt:  Egal, wie bedeutend der Mensch ist, der eine Theorie vorstellt, egal wie elegant sie ist, egal wie plausibel sie klingt,  egal wer sie unterstutzt: Wenn sie nicht durch Messungen  bestätigt werden kann, ist sie falsch! […]

[…] Die AGW-Hypothese ist indes zwingend falsch. Warum? Sie ist mit dem modernen Paradigma unserer naturwissenschaftlichen Wahrheitsfindung nicht vereinbar. Unter Paradigma versteht man eine allgemein verbindliche Denk- und Vorgehensweise. Es handelt sich im vorliegenden Fall um die Art und Weise, wie zuverlässige Kenntnisse über die Physik, hier über die Physik von Klimaänderungen, erlangt werden können. Das Paradigma der modernen Naturwissenschaft ging von Galileo Galilei aus und kam unverändert über Newton, Einstein und alle Nachfolger bis hin zur modernsten Physik auf uns. Der Grund, warum die AGW-Hypothese falsch ist: Sie kann bis heute nicht durch Messungen belegt werden. […]

[…] wird schnell deutlich,  dass die  Hypothese von einer gefährlichen globalen Erwärmung durch anthropogenes CO2 ihren alleinigen Ursprung in fiktiven Klimamodellrechnungen, aber nicht in den realen Messdaten hat. Dies bestätigt zum Beispiel ganz unverblümt Prof. Chris Folland vom größten Klimaforschungszentrum Englands, dem Hadley Centre for Climate Prediction and Research  (CRU): 

” Die Messdaten sind nicht maßgebend. Wir begründen unsere Empfehlungen nicht mit Messdaten. Wir begründen Sie mit Klimamodellen”.    

[…] Initiativen zu Klima-Sachdiskussionen mit Diskussionspartnern beider Seiten scheitern regelmäßig an den IPCC-Experten, sich öffentlichen Diskussionen mit ihren Meinungskontrahenten zu stellen [157]. […]“

Die Kommunikation der Wirtschaft, Politik und Medien kommentiert Lüdecke wie folgt:

„Die deutsche Intelligenz in Medienredaktionen, Hochschulen und Führungsetagen von Unternehmen, die diese Entwicklungen und die entstehenden Ökostrukturen nicht billigt, schweigt dennoch, duckt sich weg und versucht zu profitieren. […] Zivilcourage ist kein deutsches Wort. […]

„Auch bei größter Nachsicht kann man nicht ernsthaft behaupten, die deutschen Medien wurden im Klimageschäft ihrer verpflichtenden Aufgabe nachkommen, sachlich und neutral zu berichten. Es wurde schon betont, dass sich die Mehrheit der Medien-Redaktionen zu freiwilliger Selbstgleichschaltung in Berichten über Klima, CO2, Extremwetter, Arktiseis etc. entschlossen haben.“ […]

„Es ist aber leider eine Gleichschaltung mit den übelsten Klima-Alarmisten. Die Gründe für eine Berichterstattung, die keine ordentlichen journalistischen Recherchen und keine nüchterne sachliche Sicht mehr zulassen, sind:  1) In den deutschen Medienredaktionen sitzen weit überwiegend Redakteure, die Journalismus, Soziologie oder dergleichen studiert haben. […] 2) TV- und Radio-Aufsichtsräte werden nach politischen Kriterien installiert und müssen infolgedessen ihren Redakteuren eine verbindliche Korrektheits-Linie vorgeben.  3) Insbesondere die Printmedien sind auf Einkünfte durch grüne Annoncen angewiesen.“ 

Zur Rolle der Politik und der Medien in der Klimalobby kommentiert Lüdecke (21b)

„Hatten ehemals gegen Windräder klagende Anrainer vor Gericht noch gute Chancen, hat sich dies infolge neuer Rechts- und Auslegungsbestimmungen geändert. Der grundgesetzlich verankerte Schutz von Tieren, hier insbesondere von Vögeln und Fledermäusen, greift nicht mehr. […].  Das der Rechtsprechung von der Politik als primär vorbezeichnete Gut des ” Klimaschutzes” hat Vorrang vor dem Naturschutz. Die Politik bleibt bei dieser Linie, obwohl fachkundige Befürworter grüner Energien freimütig eingestehen, dass weder durch Windradparks noch durch   Solaranlagen in nennenswertem Umfang CO2 vermieden werden kann. […]

Die deutsche Klima- und Energiepolitik ist rational nicht mehr nachvollziehbar. Auffällig ist das sich über viele Jahre erstreckende Verlassen einer gemäßigt kritischen Klima-Sichtweise [14] bis hin zu einer an Diktaturen gemahnenden Klima-Doktrin, […] Das unaufhaltsame Umschwenken wurde nicht mit gesicherten wissenschaftlichen Erkenntnissen begründet, denn die gab es nicht.[…]. Die Politik scherte sich nicht darum.[…] Nicht nur in der Klima- und Energiepolitik hebelt der Fraktionszwang unsere Demokratie aus, denn er hindert die von uns  gewählten Volksvertreter, ihrem geleisteten Amtseid folgend,  nach eigenem Wissen und Gewissen politisch zu entscheiden.  Schlussendlich bietet die Klima- und Energiewende-Berichterstattung unserer Medien den besten Maßstab für die Beschädigung der demokratischen Kultur unseres Landes. Der Mehltau politischer Korrektheit, des Verschweigens von nicht genehmen Fakten, ökoideologischer Belehrungen und einer an die ehemalige DDR erinnernden Klima- und Energiewende-Propaganda haben sich wie eine erstickende Decke über unser Land gelegt.“

Nils-Axel Mörner, (PhD Quartärgeologie, ehem. Dekan der Fakultät für Paläogeophysik und Geodynamik der Universität Stockholm) vergleicht die Konzepte der menschengemachten globalen Erwärmung und der natürlichen globalen Erwärmung (21c).

Übersetzung aus dem Englischen durch den Autor

„Das Konzept der menschengemachten globalen Erwärmung (AGW,) angetrieben durch die CO2-Zunahme in der Atmosphäre, wird mit dem Konzept der natürlichen globalen Erwärmung (NGW), angetriebendurch die Variabilität der Sonnenaktivität, verglichen. Die Anwendung des AGW-Konzepts beruht auf Modellen, während das NGW-Konzept  auf zahlreichen empirischen und gesicherten Fakten beruht. Sogar noch mehr, die langfristige  solare Variabilität kündigt für 2030-2050 ein neues Grosses Solares Minimum (Typus Kleine Eiszeit) mit strengen Klimabedingungen an. Dies ist unverträglich mit all dem Gerede über eine zunehmende sogar sich beschleunigende globale Erwärmung. In gleicher Weise gibt es keine besondere Nachricht über einen zukünftigen Meeresspiegelanstieg der sowohl Tieflandgebiete wie Inseln überfluten wird“

Nir Shaviv, Professor und Vorsitzender  des Racah Instituts der Physik,  Hebrew University von Jerusalem beschreibt den signifikanten Einfluss der Sonne auf die globale Erwärmung (21d).

„To begin with, the story we hear in the media, that most 20th-century warming is anthropogenic, that the climate is very sensitive to changes in CO2, and that future warming will, therefore, be large and will happen very soon, simply isn’t supported by any direct evidence,[…] In fact, there is no evidence on any time scale showing that CO2 variations or other changes to the energy budget cause large temperature variations. There is, however, evidence to the contrary. Tenfold variations in CO2 over the past half-billion years have no correlation whatsoever with temperature;

Since solar activity significantly increased over the 20th century, a significant fraction of the warming should be then attributed to the sun. […]

Most bothersome, however, is that this mindset has compromised the ability to convey the science to the public.

One example from the past month is my interview with Forbes. A few hours after the article was posted online, it was removed by the editors “for failing to meet our editorial standards.” The fact that it’s become politically incorrect to have any scientific discussion has led the public to accept the pseudo-argumentation supporting the catastrophic scenarios. […]

Once China realizes it can’t rely on coal anymore, it will start investing heavily in nuclear power to supply its remarkably increasing energy needs, at which point, the West won’t fall behind“. 

Judith A. Curry, PhD in Geophysik, Professorin für Geo- und Atmosphärenwissenschaften am Georgia Institute of Technology untersucht verschiedene Prognosen der Klimaentwicklung zwischen 2020 und 2050 (21e) und schätzt die maximal bzw  minimal mögliche  Temperaturänderung für diesen Zeitraum ab. Betrachtet werden die folgenden Parameter der natürlichen Variabilität des Klimas

  • Schwankungen der Sonnenaktivität
  • Vulkanausbrüche
  • Ozeanoszillationen mit Perioden über mehrere Jahrzehnte

Bei den Schwankungen der Sonnenaktivität betont sie, dass nicht durch die direkte Einwirkung der Sonnenstrahlung zu betrachten ist, sondern auch die indirekte Wirkung durch Parameter wie die UV-Strahlung, die Änderung der Bewölkung durch den Einfluss kosmischer Strahlung und energiereiche Partikelströme. All diese Effekte haben eine verstärkende Wirkung der Sonnenstrahlung auf die Erdatmosphäre.

Überdies unterliegt die Sonnenaktivität quasiperiodischen Schwankungen und viele Solarphysiker erwarten für das 21. Jahrhundert ein großes Minimum der Sonnentätigkeit.

Es werden 3 Szenarien in Betracht gezogen mit unterschiedlichen Anteilen für die indirekte Sonnenwirkung.

Für die vulkanische Tätigkeit wählt Curry (basierend auf Untersuchungen  von Ingo Bethke vom Bjerknes Centre for Climate Research in Bergen, Norwegen) 3  unterschiedliche Szenarien  der  Abkühlung durch vulkanische Aktivität aus.

Bezüglich der internen Variabilität der Multidekaden-Schwankungen der Ozeane werden 3 Szenarien der zu erwartenden kalten Phase der AMO Oszillation in Betracht gezogen.

Was schließlich den  globalen Erwärmungseffekt in Abhängigkeit der CO2- Emissionen anlangt, werden  Werte für  das sozioökonomische Szenario SSP2.5-4.5  berechnet. (Dieses Szenario beschreibt eine Situation der Welt  mit deutlicher Beschränkung der CO2 Emission auf etwa den heutigen Wert von 40 Gigatonnen/Jahr, Abnahme gegen Null nach 2100). Es werden 4 Szenarien, auf der Basis der vom IPCC AR5 als wahrscheinlich erachteten Temperaturerhöhungen als Funktion des gesamten (kumulierten) CO2-Austosses bis 2050 in Betracht gezogen.

Kombiniert man nun die 4 Emissionsszenarien, die 3 Sonnenwirkungsszenarien, die 3 Vulkanaktivitätsszenarien und die 3 AMO Oszillationsszenarien, so erhält man 108  Kombinationen mit unterschiedlichen Temperaturerhöhungen

Von diesen bis zum Jahre 2050 möglichen Temperaturerhöhungen zeigt die nachfolgende Tabelle  den höchsten zu erwartenden Wert , den niedrigsten zu erwartenden Wert sowie  das Mittel ohne die Extremwerte an.

Die Analyse von Curry besagt, dass die mögliche Erwärmung bis 2050 1°C nicht übersteigen wird, dass aber auch eine Abkühlung möglich ist.

Nicola Scafetta, PhD in Physik, Universität von Neapel Frederico II et al vergleichen die Ergebnisse der Rechenmodelle des IPCC mit der Realität und stellen ein Klimamodell vor, das die Wechselwirkung zwischen dem Sonnendynamo und den Planeten berücksichtigt (21f),(27).(Übersetzung aus dem Englischen durch den Autor)

(21f): Zusammenfassung

„[…] Um das letztgenannte Problem ( Autor: “die merkliche Erwärmung seit dem Beginn des 20.Jahrhunderts“)korrekt zu behandeln, ist es erforderlich die Phänomenologie der natürlichen Klimafluktuationen zu verstehen. Diese werden gut durch mehrere Klimaindizes wie  die Atlantische Multidekaden-Oszillation, die Pazifische Dekaden-Oszillation und die El Nino-Southern Oscillation (Autor ) beschrieben.[…]“

„Diese komplexe natürliche Dynamik ist immer noch nicht in den General Circulation Models (Autor: GCM Rechenmodelle) berücksichtigt, auf denen die AGW Theorie beruht, die hauptsächlich  vom IPCC (Intergovernmental Panel on Climate Change) vertreten wird. […]

Wir finden, dass die Rechenmodelle, während der Zeit der historischen Aufzeichnung (Autor: 1860 bis 2016) , deutlich über der beobachteten Erwärmung, liegen.“

(21f): Einführung

„[…]Auf der dekadischen bis tausendjährigen Zeitskala haben diese Oszillationen Perioden von 9.1 Jahren, die wahrscheinlich ein Sonne-Mond-Gezeiten Zyklus ist, von 10-11 Jahren ,  der 11-jährige Sonnenzyklus , der im 20. Jahrhundert im Mittel 10.5 Jahre betrug, von Quasi-20 Jahren- und Quasi-60 Jahren- Zyklen (Autor: „Quasi“ soll heissen, dass diese Schwingungen regelmässig auftreten, aber keine konstante Periode haben), die in Beziehung mit wichtigen Oszillationen des Sonnensystems durch die Jupiter-Saturn Umlaufbewegungen (Autor: um die Sonne) stehen, von Quasi 115-Jahren und Quasi 980-Jahren  Oszillationen, die in Beziehung zu Schwebungen zwischen Planeten -und Sonnen- Oszillationen stehen. […]“

(27): 4. Vorhersagen des semiempirischen Modells

„Seit 2010 hat Scafetta vorgeschlagen, dass die Dynamik der Klimaaufzeichnungen nahelegt, dass das System nach spezifischen Oberschwingungen oszilliert, die in den Gravitations-und elektromagnetischen Schwingungen der Sonne und des Sonnensystems gefunden werden können.[…]“

(21f): Einführung

„Die neuen Ergebnisse stimmten mit alternativen Aufzeichnungen des Klimas und der Sonnenaktivität überein, die zeigen dass während des gesamten Holozäns der letzten 10 000 Jahre eine 1000-jährige Oszillation auftrat. Somit würde die Existenz einer Millenum -Oszillation die Zuverlässigkeit der Klimamodelle, die die AGW Theorie unterstützen in Frage stellen, weil sie nahelegen, dass etwa 50% der seit 1850 beobachteten Erwärmung natürlichen Ursprungs  sein könnte. […]

Seit 1850 hat man mehrere 30-Jahr Trendwenden beobachtet, eine Erwärmung von 1850 bis 1880, eine Abkühlung von 1880 bis 1910, wieder eine Erwärmung von 1910 bis 1940, eine Abkühlung von 1940 bis 1970 dann stieg zwischen 1970 und 2000 die Temperatur erneut an. Schliesslich war die Temperatur seit 1998 für etwa 20 Jahre verhältnismässig stabil…[…]“

(27) Zusammenfassung

„ Die Zeitspanne von 2000 bis  2016 zeigt einen bescheiden Temperaturanstieg, den die Vertreter der AGW als die „Pause“ oder „Hiatus“ bezeichnet haben.

[…]Jedoch erzeugte die Temperaturspitze im Zeitraum 2015-2016 , das „heisseste Jahr seit Beginn der Temperaturaufzeichnung“,  den Eindruck, dass ab 2014  die Temperaturpause beendet wäre .[…]

Beobachtete globale Temperatur (links) und Temperaturverlauf ohne ENSO-Effekt (rechts)

https://www.researchgate.net/figure/left-Original-temperature-records-blue-against-the-CMIP5-mean-simulations-from-138_fig3_320038265

Die Autoren zeigen, dass diese Temperaturspitze in keinem Zusammenhang mit dem menschenverursachten Antrieb (Autor:CO2) steht, sie ist eine Folge der natürlichen kurzfristigen Klimafluktuationen der El-Nino-Southern Oscillation (ENSO). […] Damit sind die GCM-Rechenmodelle die üblicherweise benutzt werden die AGW-Theorie zu unterstützen, höchstwahrscheinlich fehlerhaft. Dagegen stimmen  die semi-empirischen Klimamodelle […],die auf einer speziellen Auswahl von natürlichen Klimaoszillationen , die  wahrscheinlich astronomischen Ursprungs sind, beruhen, kombiniert mit einem deutlich reduzierten menschengemachten Beitrag, weitaus besser mit den jüngsten Beobachtungen überein.“

(27): 4. Vorhersagen des semiempirischen Modells

„Seit 2010 hat Scafetta vorgeschlagen, dass die Dynamik der Klimaaufzeichnungen nahelegt, dass das System nach spezifischen Oberschwingungen oszilliert, die in den Gravitations-und elektromagnetischen Schwingungen der Sonne und des Sonnensystems gefunden werden können.

Auf der dekadischen bis tausendjährigen Zeitskala haben diese Oszillationen Perioden von 9.1 Jahren, die wahrscheinlich ein Sonne-Mond-Gezeiten Zyklus ist, von 10-11 Jahren ,  der 11-jährige Sonnenzyklus , der im 20. Jahrhundert im Mittel 10.5 Jahre betrug, von Quasi-20 Jahren- und Quasi-60 Jahren- Zyklen (Autor: „Quasi“ soll heissen, dass diese Schwingungen regelmässig auftreten, aber keine konstante Periode haben), die in Beziehung mit wichtigen Oszillationen des Sonnensystems durch die Jupiter-Saturn Umlaufbewegungen (Autor: um die Sonne) stehen, von Quasi 115-Jahren und Quasi 980-Jahren  Oszillationen, die in Beziehung zu Schwebungen zwischen Planeten -und Sonnen- Oszillationen stehen. […]“

Eine Erläuterung der Sonnenoszillationen und ihres Ursprungs finden Sie unter den folgenden URL‘s:

Our Sun’s Mysterious 11-Year Cycle Appears to Be Driven by Alignment of The Planets
https://www.sciencealert.com/the-sun-s-11-year-cycle-have-may-have-something-to-do-with-the-gravity-of-the-planets

A Model of a Tidally Synchronized Solar Dynamo
https://arxiv.org/pdf/1803.08692.pdf

The complex planetary synchronization structure of the solar system
https://arxiv.org/pdf/1405.0193.pdf

2.8 Ein „Klimaschützer“ tritt zum „Klimarealismus“ über

Michael Shellenberger ist ein amerikanischer Autor und Klimaschützer, Mitbegründer des „Breakthrough Instituts“ (Umweltforschungsinstitut, Kalifornien)) und Gründer von „Environmental Progress“ (Forschungs- und Politikorganisation für saubere und gerechte Energie). Er wurde vom Time Magazin zum „Umwelthelden 2008“ gekürt und erhielt 2008 den  „Green  Book Award“ (Wikipedia).

Nun ist er im Juni 2020 mit einer bemerkenswerten Veröffentlichung im Forbes Magazin hervorgetreten (Forbes hat die Veröffentlichung des Artikels später zurückgezogen aufgrund der Unvereinbarkeit des Inhalts mit den Richtlinien von Forbes) (21g). Er schreibt (Übersetzung aus dem Englischen durch den Autor):

„Im Namen der Umweltschützer in aller Welt möchte ich mich formell für die Klimaangst entschuldigen, die wir in den letzten 30 Jahren geschaffen haben.

[…] Mit 16 wurde ich ein Umweltschützer, als ich eine Spendenaktion für das Rainforest Action Network organisierte. Mit 27 half ich die letzten ungeschützten Mammutbäume in Kalifornien zu retten. Mit 30 setzte ich mich für erneuerbare Energien ein und half erfolgreich mit, die Obama Administration zu überzeugen, dafür 90 Milliarden Dollar zu investieren.

[…] Aber bis zum letzten Jahr vermied ich es meistens gegen die Klimaangst zu argumentieren. […] Ich schwieg über die Klima- Desinformations-Kampagne, weil ich fürchtete Freunde und finanzielle Unterstützung zu verlieren. Die wenigen Male, als ich den Mut aufbrachte die Klimawissenschaft gegen die zu verteidigen, die sie falsch darstellten, habe ich drastische Konsequenzen erfahren müssen. So stand ich meistens abseits und tat fast nichts als meine Umweltschützer -Kollegen die Öffentlichkeit in Schrecken versetzten.

Aber dann letztes Jahr gerieten die Dinge außer Kontrolle.

Alexandria Ocasio-Cortez sagte: “ Die Welt wird in 12 Jahren untergehen, wenn wir uns nicht um den Klimawandel kümmern. Großbritanniens hochrangigste Umweltschutzorganisation (Autor: Extinction Rebellion) behauptetet „Der Klimawandel tötet Kinder“.

Der einflussreichste „grüne Journalist“ der Welt, Bill McKibben, bezeichnete den Klimawandel als die „größte Herausforderung, der sich die Menschheit jemals gegenübersah“ und dass sie „ganze Zivilisationen auslöschen“ würde.

So habe ich mich entschlossen den Mund aufzumachen. […]

  […] In den 3 abschliessenden Kapiteln von „Apokalypse Nie“ lege ich die finanziellen, politischen und ideologische Motive offen. Umweltschutzorganisationen haben Hunderte von Millionen von Dollars von der fossilen Brennstoffwirtschaft angenommen.  Organisationen mit antihumanistischen Überzeugungen drängten die Weltbank aufzuhören die Armut zu bekämpfen and stattdessen Armut „nachhaltig“ zu gestalten.

[…]Wenn man einmal wahrnimmt, wie schlimm wir fehlinformiert wurden, oft von Leuten mit ungesunden und widerlichen Beweggründen, fällt es schwer sich nicht betrogen zu fühlen.

[…] ich hoffe Sie stimmen zu, dass es nach allem vielleicht nicht so seltsam ist, wie es scheinen könnte, dass ein langjähriger Klimaschützer, Progressiver und Klimaaktivist sich gezwungen fühlte sich gegen den Alarmismus auszusprechen.

Ich hoffe darüber hinaus, dass Sie meine Entschuldigung akzeptieren.“

Das Global Warming Policy Forum (GWPF) kommentiert

„Die Entscheidung von Forbes die „Klimaentschuldigung“ von Michael Shellenberger zu löschen war nicht das erste Mal, dass sie eine kritische Stimme in der Klimadebatte zensierten. Letztes Jahr taten Sie das Gleiche: Ein Interview mit Professor Nir Shaviv, einer der wissenschaftlichen Berater von GWPF wurde von Forbes entfernt.“

> weiter zu 3.0 Welche Einflussgrössen bestimmen das Klima der Erde ?