
(1. Version 2014)
In der Öffentlichkeit und als Folge in der Politik herrscht die Meinung, dass die Erhöhung der mittleren Erdtemperatur vorwiegend durch das vom Menschen in die Atmosphäre eingebrachte CO2 Gas verursacht wird. Dabei ist Wasserdampf das dominierende „Klimagas“, das kann man mit einem Blick auf Himmel und Wolken auch als Laie einfach feststellen. Die Energie für Stürme wie Lothar oder Sabine kommt nicht vom CO2 sondern von Wasserdampf aus dem Meer.
Zunächst sollte man verstehen, daß es ohne CO2 in der Atmosphäre kein Leben auf der Erde gäbe. Natürliche Prozesse erzeugen CO2 und bauen es auch ab. Im Lauf der Erdgeschichte hat der CO2 Gehalt und die Verteilung in der Atmosphäre auch ohne Einfluß des Menschen stark geschwankt.
Das Klima auf der Erde wird wesentlich durch die Bewegung der Erdachse Milankowitsch Zyklen (1976), beeinflußt, die sich in Zeiträumen zwischen 20 000 und 100 000 Jahren abspielen. (Wer wissen möchte wie kompliziert das Klima auf der Erde ist, sollte versuchen, den Artikel in Wikipedia zu verstehen). Die Wissenschaft ist sich heute fast einig, dass z.B. die Eiszeiten durch diese Zyklen verursacht wurden. Physikalisch sind zur Zeit auf der Nordhalbkugel Frühling und Sommer etwa 8 Tage länger als Herbst und Winter. Ein Teil der Physiker erklärt damit einen Teil der zur Zeit herrschenden Wärmeperiode – ein anderer Teil behauptet das Gegenteil (siehe [26] [27] . Die Physik des Klimas ist offensichtlich nicht so einfach. Die Variation der Abstrahlung von Energie durch die Sonne und Erde hat ebenfalls Einfluß auf die Temperaturen auf der Erde. Die Wissenschaft ist sich auch da nicht einig wie groß der Effekt auf das Klima der Erde ist.

Meere bedecken 71% der Erdoberfläche
Im Gegensatz zu den physikalischen Daten der Erdbewegung kann man den Einfluss von CO2 auf das Klima nicht messen, sondern nur vereinzelt den CO2 Gehalt in der Atmosphäre. Die Messung des CO2 Gehalts ist sehr kompliziert und stark abhängig vom Ort, Höhe des Sensors, usw. und wird deshalb selbst in großen Meßstationen nicht gemessen. Die CO2 Messung mit Lasern kann nur bei Luft gemacht werden, die keinen Wasserdampf enthält. Die Luft muss vor der Messung des CO2 Gehalts durch Kälte „getrocknet“ werden. Es gibt nur nur drei offizielle Meßstationen weltweit obwohl alle Welt den CO2 Gehalt in der Atmosphäre diskutiert.
Es ist also nicht ganz einfach, die geforderten Veränderungen im Weltwirtschaftssystem wissenschaftlich zu untermauern. Die CO2 Diskussion ist aber ein sehr schönes Beispiel, wie verschiedene Interessengruppen die öffentliche Meinung zu manipulieren versuchen. Es gibt im wesentlichen zwei Blöcke, welche die Meinungsbildung beeinflussen. Zunächst gibt es den Block der „Klimaschützer“, der davon überzeugt ist, dass der Weltuntergang schon in 100 Jahren bevorsteht, wenn der Ausstoß von CO2 nicht verringert wird, während die Lieferanten von Erdöl, Kohle und Gas keine Gründe für übereiltes Handeln sehen. Dabei wird auf beiden Seiten besonders aber von den „Klimaschützern“ gerne mit unwissenschaftlichen Methoden gearbeitet, die man als grobe Verfälschung der Tatsachen bewerten muss.

Anstieg des CO2 Ausstoßes weltweit (Beispiel)
Quelle: Erneuerbare-Energien-und-Klimaschutz.de
In dieser Grafik wirkt der Anstieg der CO2 Emissionen sehr bedrohlich. Dabei kommt eine bekannte Methode der Täuschung mit Hilfe der grafischen Darstellung zur Anwendung. Es werden die Energiebedingten CO2 Emissionen (vom Menschen verursacht) mit der CO2 Konzentration in der Atmosphäre in Beziehung gesetzt. Es werden unterschiedliche Methoden der Darstellung der CO2 Konzentration in der Atmosphäre, eine kumulierte Größe, und der CO2 Emissionen in absoluten Werten verwendet. Würde man auch für die Emissionen die kumulierten Werte verwenden, sähe die Kurve weit weniger bedrohlich aus, da man ja dann auch die natürlichen CO2 Emissionen berücksichtigen müsste. Erneuerbare-Energien-und-Klimaschutz.de . Seit 1950 hat sich das durch vom Menschen verursachte CO2 Emissionen in der Atmosphäre um 460 ppm erhöht. Mit dem Energiebedingten CO2 Ausstoß kann man die global gemessene Zunahme der CO2 Konzentration ab 1950 von etwa 750 ppm nicht erklären. Fragt man im Bekanntenkreis um wieviel sich die CO2 Konzentration in der Atmosphäre in den letzten 50 Jahren geändert hat, so bekommt man Antworten, die leicht im Bereich von 100% bis 300% liegen und natürlich wird der CO2 Anstieg nur durch die „bösen“ Menschen verursacht.
Mit obigem Diagramm wird suggeriert, daß ab 1960 der CO2 Gehalt stark ansteigen müsste. Bei den CO2 Messungen auf Hawai und in Deutschland auf der Zugspitze und auf dem Schauinsland sieht man einen fast linearen Anstieg. Einen überproportionalen Anstieg ab 1970 sieht man nicht!
Offensichtlich hat es die Lobby der „Klimaschützer“ geschafft die öffentliche Meinung massiv zu beeinflussen. Das liegt u.a. daran dass sich die „Klimaignoranten“, also die Industrie, fast nicht in die Diskussion über Ursachen und Wirkung der CO2 Emissionen beteiligt und sich auf ihre Lobbyisten in der Politik verlässt. Ähnlich wie die Temperatur schwankt der CO2 Gehalt je nach Ort und Jahreszeit. In einer Simulation der NASA (zum YouTube Video) wird die CO2 Verteilung simuliert – dabei wird ein schreckliches Rot als Schreckfarbe verwendet um die doch geringfügigen Erhöhungen der CO2 Konzentration (2% entspricht Schreckrot) in der Atmosphäre darzustellen. Man sieht aber, dass die Nordhalbkugel der Erde im Winter viel CO2 generiert das dann im Sommer teilweise wieder abgebaut wird. Gerne werden dabei die Höchstwerte auf der Nordhalbkugel zu Beginn des Frühjahrs mit den Mittelwerten aus früheren Jahren verglichen damit die Lage etwas dramatischer dargestellt werden kann. Demnächst wird die NASA auch den CO2 Gehalt mit Satelliten messen. Damit kann man dann die Computer Modelle verbessern.
Ein weiteres Problemfeld bei der Klimadiskussion ist die Messung der Temperaturen. Ausgangspunkt der Diskussion ist dabei die sogennannte „Hockeykurve“, die den Anstieg der globalen Temperaturen zeigt.

Quelle: Wikipedia
Nun kann man beliebig lange streiten ob eine relative, globale mittlere Abweichung der Temperatur über Land und Ozeane überhaupt eine sinnvolle Größe ist und ob die Kurve richtig ist oder nicht. Selbst ein Laie erkennt aber, dass der Anstieg dieser Kurve zwischen 1900 und 1950 wohl nichts mit den CO2 Emissionen zu tun hat, die erst nach 1950 signifikant anstiegen.
Typisch ist die Aussage des Weltklimarats. „Der Weltklimarat bezeichnet es in seinem jüngsten Sachstandbericht als „extrem wahrscheinlich“, dass der Anstieg der Treibhausgas-Konzentration in der Atmosphäre für mehr als die Hälfte des beobachteten Temperaturanstiegs der letzten 60 Jahre verantwortlich ist.“ Hier gilt: wenn immer in einer wissenschaftlichen Publikation das Wort wahrscheinlich auftaucht, bedeutet dies daß man es nicht so genau weiß und man sich ein Hintertürchen offenhalten will. Der Weltklimarat erklärt aber nicht, woher das CO2 herkommt, daß nicht vom Menschen erzeugt wurde. In einer neuen US Studie wird dieser Anteil auf 50% geschätzt.
Ein beliebter „Schwindel“ der Klimaforscher ist die Mischung von Daten z.B. in der Darstellung des Potsdam Institut für Klimaforschung PIK), dessen fanatischer Klimaführer Schellnhuber durch alle Talskshows des öffentlich rechtlichen Fernsehens tourt.

Hier werden Temperaturmesswerte aus Perioden gezeigt, die man nicht vergleichen kann. Einigermaßen verläßliche Temperaturmessungen gibt es weltweit allenfalls seit 1950. Wissenschaftlicher Betrug ist es aber, wenn Simulationen mit realen Messungen kombiniert werden.
Geradezu lächerlich ist es, wenn sogar in „Deutschen Humor Shows“ verbreitet wird, daß 97% der Klimawissenschaftler an die gängige Theorie für die Ursachen des Klimawandels glauben (Die Einigkeit die es nie gab) Als Galileo, Einstein u.a. ihre Theorien verkündet haben, waren 100% der Wissenschaftler anderer Meinung. Kritiker der Lehrmeinung wurden wie z.B. Galileo wurden als Ketzer von damaligen IPCC, der katholischen Kirche, mit Verbrennung auf dem Scheiterhaufen bedroht!
Gesetze der Physik kann man nicht abstimmen. An deutschen Universitäten glauben viele vom Staat bezahlte Theologen noch immer an die Jungfrauengeburt von Jesu. Wer dies leugnet wird vom „System“ entfernt.
In der History of Temperature Measurements werden die unterschiedlichen Methoden zur Temperaturmessung beschrieben. Selbst Optimisten räumen einen Fehler von > 0.5% der Meßinstrumente ein (http://wattsupwiththat.com/2012/08/30/errors-in-estimating-temperatures-using-the-average-of-tmax-and-tmin-analysis-of-the-uscrn-temperature-stations/). Viel größere Fehler werden aber durch Veränderung durch die Meßmethoden und in der Umgebung der Meßstationen verursacht z.B. ob die Wiese darunter frischgemäht ist oder nicht. In der Sahara konnte man z.B. keine Erhöhung der realen Temperaturen ( Sahara Temperature Trends ) messen. Da ist aber auch die CO2 Konzentration gering, da in der Sahara nur sehr wenig geheizt wird. In der Zeit von 1800 bis 2000 wurden die Methoden der Temperaturmessung und die Zahl und die Platzierung der Meßstationen vielfach geändert. Die Werte werden von verschiedenen Wissenschaftlern unterschiedlich umgerechnet und gewertet (man sollte sich die „wissenschaftliche Diskussion um Meßwerte und Filter mal ansehen).
Unbestritten ist, daß sich das Klima in z.B. Afrika (aus Grasland wurde die Sahara) aber auch in Grönland (da wurde es plötzlich 18 Grad wärmer) in den letzten 10 000 Jahren grundlegend geändert hat, auch ohne vom Menschen verursachtes CO2 – How earths orbital shift shaped the sahara Verblüffend ist aber, daß sich die Wissenschaftler bis heute nicht einig sind wie diese massive Veränderung im Weltklima zustande kam.
Messungen der Wassertemperaturen der Meere (in denen die meiste Energie gespeichert ist) und der Lufttemperaturen gibt es selbst heute nur sehr rudimentär.
https://www.carbonbrief.org/explainer-how-surface-and-satellite-temperature-records-compare
“We conclude that the most robust way of doing this is through estimates of global ocean heat content. It is an important scientific message to highlight the role and the need for in situ ocean observations.”
Das Konstrukt einer mittleren globalen Temperaturabweichung als alleinige Messgröße für den Klimawandel ist äusserst fragwürdig. Die mittlere Temperatur wurde einst eingeführt um der Landwirtschaft Hinweise für das Wachstum von Pflanzen zu geben. Zunächst hat man die maximale Temperatur Tmax und die minimale Temperatur Tmin am Tag einfach addiert und durch zwei geteilt. Damit bekam man aber keine vernünftigen Hinweise für den Anbau von Pflanzen. In Deutschland wurde deshalb die mittlere Temperatur mit der Formel (T7:00 + T14:00 + 2xT21.00)/4 berechnet, um den Einfluss kalter Nächte auf das Pflanzenwachstum besser abzubilden. Im Jahr 2001 wurde die Methode noch einmal geändert. Jetzt wird wie international üblich die Temperatur jede Stunde gemessen und dann gemittelt. Jetzt wird die Temperatur auch Nachts stündlich gemessen. Dadurch ändert sich natürlich die mittlere Tagestemperatur. Das zeigt, dass die mittlere Temperatur eine relativ willkürliche Messgröße ist. Selbst das IPCC geht jetzt dazu über, Temperaturen nicht mehr global sondern lokal zu behandeln.
Aus eigener Erfahrung weiß man, dass die tatsächlichen Temperaturen von den langjährigen Mittelwerten erheblich abweichen können. Im Mai 2014 war es in manchen Gebieten der Erde im Monatsmittel bis zu 10° wärmer oder kälter als im langjährigen Mittel. Die Daten für dieses Schaubild werden in einem extrem komplexen Prozess ermittelt und veröffentlicht. Das zeigt dass eine Messgröße wie die mittlere globale Temperatur eigentlich wenig sinnvoll ist. In den grossen Städten mit dichter Bebauung sind die Temperaturen im Sommer schon mal 10 Grad höher als in der Umgehung.

Quelle: http://www.metoffice.gov.uk
Den Einfluss von CO2 auf die globale Erdtemperatur kann man infolge der Ungenauigkeit der Daten nicht nachweisen. Die Klimaschützer könnten also Recht haben oder auch nicht. Das ist einer der Gründe warum sich über das Klima ähnlich trefflich streiten läßt wie über Religionen. Unter ernsthaften Klimaforschern wurde über Zeitabschnitte von 30 Jahren gemittelt. Was dazwischen lag, nannte man Wetter. Von 1950 (Anstieg des von Menschen generierten CO2) hat man also nur zwei Werte für Klimakurven. Damit kann man natürlich statistisch keine vernünftigen Aussagen ableiten. Man verwendet deshalb heute gern Meßabschnitte von 10 Jahren – damit erhält man nur Aussagen über Wetteränderungen aber keine vernünftige Aussagen über die Klimaänderungen.
Ein weiterer Grundpfeiler der weltweiten Klimadiskussion sind die Klimasimulationen mit Hochleistungsrechnern. Dabei wird der Öffentlichkeit vorgegaukelt, dass die Ergebnisse einer Klimasimulationen umso vertrauenswürdiger sind, je größer der Computer ist auf denen die Simulation durchgeführt wird und je mehr Simulationen es gibt, desto größer sei ihre Aussagekraft. Nun hat die Wettervorhersage mit Computermodellen in den letzten Jahren signifikante Fortschritte gemacht vor allem weil die Messungen von Wetterradar, Satelliten usw genutzt werden können. Man erreicht heute beim Stand der Technik aber allenfalls einigermaßen sinnvolle Resultate für den Zeitraum einer Woche. Selbst dabei sind die Voraussagen äusserst vage. Optimistisch hofft man in Zukunft Aussagen wie „milder Winter“ oder „kalter Winter“ für den Zeitraum von zwei Monaten machen zu können, Selbst seit Jahrhunderten bekannte Klimaphänomene wie El Nino ( Wikipedia: There is no consensus on whether climate change will have any influence on the occurrence, strength or duration of El Niño events) kann man heute nicht zuverlässig voraussagen. Bekannte Vorhersagen über das Wetter oder das Klima in zig Jahren sind aber reine Scharlatanerie. Die Computer Modelle für die Wettervorhersage brauchen viele reale Daten um die Methoden zu verfeinern und zu korrigieren. Hat man keine verlässlichen Daten kann man die Modelle nicht korrigieren und verfeinern. Man kann allerdings mit komplexen Modellen bekannte Abläufe wie z.B. das Wetter im letzten Jahr recht gut simulieren. Das erlaubt aber keine Aussagen über die Zukunft.
Ein weiteres Lieblingsthema der Klimaschützer ist der Anstieg der Weltmeere. (Siehe Globale Erwämung – Wissenschaftler zum Anstieg der Meerespegel) Auf jeder Klimakonferenz treten zentnerschwere in bunte Kleider gehüllte Regenten von Südseeinseln (und ihre gewichtigen Frauen) auf, die sich über den Anstieg der Weltmeere und das baldige Abtauchen ihrer Atolle beklagen. Dabei wird gerne übersehen, dass diese Inseln einst als Vulkane aus dem Meer aufgetaucht sind und dann infolge ihres Gewichts wieder absinken. Dazu kommt, dass bei anhaltendem Wind, dass Meer im Pazifik schon mal um zwei Meter ansteigen kann. Dabei wird von einigen Inseln Sand abgetragen, der auf anderen Inseln zum Teil wieder auftaucht- das wird aber im Fernsehen nicht gezeigt. Die größte natürliche Gefahr für die Menschen auf der Erde geht real wohl von Erdbeben durch die Verschiebung der Erdplatten aus. Hier sind vor allem die Pazifikränder bedroht. Die Tsunamis der letzten Jahre zeigen dies deutlich erkennbar auf. Wollte man den Anstieg der Meere messen, müsste man mit einer Genauigkeit von etwa 1 cm in 30 Jahren den Meeresspiegel global messen können. Bei den Pegeln ist die Lage aber ähnlich wie bei der Temperatur. Es kommt in verschiedenen Teilen der Erde sowohl zu positiven als auch negativen Veränderung der Pegel. Wenn sich wie an der Ostküste der USA die Oberfläche durch Tektonik senkt steigt vermeintlich der Meeresspiegel. Die heute übliche Vermessung der Meeresoberfläche mit Satelliten hat systematische Fehler (Wellen, Strömung, Wasserdampf) von mindestens zwei Metern, die nur mit komplexen mathematischen Verfahren „geglättet“ werden können. Es besteht also keine Chance Veränderungen des globalen Meerespegels und des Meeresuntergrunds auf etwa 1 cm in 30 Jahren zu messen. Langzeitmessungen der Pegel z.B. an der Ostküste der USA zeigen seit 1900 einen linearen Anstieg von 2 mm /Jahr (200 mm in 100 Jahren). Eine Sturmflut mit meterhohen Wellen ist da wohl weit gefährlicher. Die Pegelstände an der Ostküste der USA werden auch vom Golfstrom beeinflusst. Einen erhöhten Anstieg durch die Erhöhung der weltweiten CO2 Konzentration nach 1950 kann man in den Daten nicht erkennen.

Einen sehr guten Überblick über die Einflüsse von Meer, Land und Strömung (Golfstrom) findet man in Chesapeak Bay Land Subsidence and Sea Level Change [siehe Grafik oben und Sea Level trends]. Wie in allen flachen Gewässern verändert sich die Küstenlandschaft durch den Sand, der durch die Strömung verschoben wird. Ein schönes Beispiel ist dafür die Insel Sylt, die schon längst von der deutschen Landkarte verschwunden wäre, wenn man nicht mit immensem Aufwand den im Winter weggeschwemmten Sand ersetzen würde. Steigt durch die tiefer ausgebaggerte Fahrrinne das Wasser im Hamburger Hafen oder in Venedig bei Flut braucht man sich nicht zu wundern.
Mit Verblüffung wird man zur Kenntnis nehmen, dass die Änderung der Meeresspiegel ähnlich wie die Temperaturen auf der Erdoberfläche sehr unterschiedlich sind. In der Arktis und in Grönland sinken die Meeresspiegel zum Teil durch Hebung der Landmasse.

Der globale Klimawandel ist also sehr real. Man kann ihn aber nicht allein auf den CO2 Anstieg seit etwa 1950 zurückführen (The estimation of „global“ sea level change – a problem of uniqueness ).
Zusammenfassend kann man also sagen, dass der heutige Stand der Klimaforschung und -daten sowie der Stand der Messtechnik qualutative aber keine gesicherten quantitativen Aussagen über den Einfluss von CO2 auf das Klima erlauben. Sicher ist jedoch dass Menschen besonders das lokale Klima durch Städtebau, Umweltverschmutzung, Abholzung, Begradigung der Flüsse und Trockenlegung der Moore usw massiv beeinflussen können. Auch das weltweite Klima wird sich weiter verändern wie es sich schon immer geändert hat – zum Glück befinden wir uns nach der letzten Eiszeit vor 10 000 Jahren in einer Phase der globalen Erwärmung! Die Änderung des Klimas läßt sich aber wohl nicht monokausal auf den von Menschen verursachten CO2 Ausstoß zurückführen. Die Klimaschützer könnten also Recht haben oder sich in der langen Reihe der Propheten wiederfinden, die bisher den Weltuntergang vorhergesagt haben.
PS In der Öffentlichkeit wird häufig nicht korrekt unterschieden zwischen
- Klimawandel – die Änderung des lokalen und globalen Klimas
- Energiewende – die Nutzung nicht fossiler Energiequellen und Reduzierung der Produktion von CO2 und anderer Treibhausgase
Den Klimawandel, den es schon immer gegeben hat, kann man wohl nicht „leugnen“. Offensichtlich ist der Klimawandel eine neue Religion. Die Sinnhaftigkeit der Projekte zur Klimaforschung und Berichterstattung durch das IPCC sowie die verschiedenen Maßnahmen im Rahmen der geplanten Energiewende kann man aber sehr wohl diskutieren.
PS 9/11/2016: Der designierte US Präsident Donald Trump wurde offensichtlich über das Thema Klimawandel von einem IPCC Skeptiker gebrieft. Donald Trump: Climate change is “just weather” and the science behind the concept is a “hoax”. Damit hat er sicher nicht recht. Es ist aber zu hoffen, daß die Klimaforschung zumindest damit von der Religion wieder in die naturwissenschaftliche Realität der Physik, Mathematik und Chemie zurückkehrt.
Kommentar 2/2017: Interessant ist die Klimawandel Diskussion der Position der verschiedenen Parteiprogramme für die Bundestagswahl 2017 bei klimafakten.de. Dort finden sich z.B. einige klasssische Tricks der „Klimaforscher“.
- Die Sinnhaftigkeit einer globalen Welttemperatur des IPCC wird nicht hinterfragt. Lokale Änderung der Temperatur werden offensichtlich mehr beachtet.
- Bewußt beschränkt man sich auf die letzten 2000 Jahre – der „Sahara Effekt“ mit massiven Änderungen des Erdklimas durch die Stellung der Erdachse wird nicht erwähnt.
- Die Anpassung der unzähligen Klimasimulationen an die bisher gemessenen historischen Werte läßt keine Aussagen über die Entwicklung des zukünftigen Klimas zu.
- Es wird immer wieder auf den „Stand der Wissenschaft“ hingewiesen. Die Frage ist aber, ob der Stand der Wissenschaft ausreichend ist, wenn exakte Daten nicht einmal für die letzen 200 Jahre vorliegen Die Messungen der Wassertemperaturen in den Weltmeeren sind selbst heute noch völlig unzureichend.
- Die Aussagen von Wissenschaftlern gewinnen nicht an Wert, wenn sie von Politikern akzeptiert und für ihre Zwecke mißbraucht werden.
Es gibt noch viel zu tun vor allem braucht man viel mehr Messungen im Meer und der Atmosphäre in grösseren Höhen. Die grosse Abhängigkeit von der Forschung in USA muss verringert werden, da die Gefahr besteht, daß die Mittel im Trump Zeitalter stark gekürzt werden.
____________________________________________________ Geschichte____________________
Temperatur Daten Hohenpeißenberg ist die längste historische Zeitreihe von Temperaturmessungen in Deutschland. Das Klima im Alpenvorland wurde allerdings in den letzten hundert Jahren vom Menschen durch Entwässerung massiv verändert, was sicher auch Einfluss auf das lokale Klima hatte.
Zeitreihe der Lufttemperatur in Deutschland (Wikipedia)
Zum NeuDenken – Hochwassermarken in Schärding am Inn. Über den Inn wird ein großer Teil des deutschen Voralpenlandes entwässert – der höchste Hochwasserpegel wurde in Schärding 1598 gemessen als noch keine Flüsse begradigt und keine Moore und Naßwiesen trocken gelegt waren. (Ähnliches sieht man bei den Hochwassermarken an der Eisernen Brücke (Stadtseite) in Frankfurt am Main!).
Inn Hochwasser Pegel am Wasserturm in Schärding (2013 ist ganz unten – 1598 oben)

Historische Pegel Eiserne Brücke Frankfurt a.M.
Hallo, im Text stimmt etwas nicht:
„Es werden unterschiedliche Maßstäbe für die vorhandene CO2 Konzentration in der Atmosphäre (links – ca 15000 ppm) und die vom Menschen verursachten Emissionen (rechts – ca 500 ppm) verwendet“. Ist der Maßstab in der Grafik links nicht „Mt“ = Megatonnen? Man könnte das doch direkt in ppm in deratmosphäre umrechnen, oder?
Richtig, habe leider rechts mit links verwechselt. Habe den Artikel korrigiert. Das Problem ist eigentlich, daß in dem Diagramm Äpfel mit Birnen verglichen werden und damit eine einfache Korrelation zwischen CO2 Ausstoß und Erhöhung des CO2 Anteils in der Luft suggeriert wird. Die Zusammenhänge sind aber viel komplizierter. CO2 wird z. B. im Meer gebunden, im Boden gespeichert und erzeugt usw. Die Wissenschaft ist da noch ziemlich unsicher. Gefragt sind im Moment wohl nur einfache Antworten.
Pingback: Der Klimawandel ist nicht schuld an lokalem Hochwasser | Hohenzollern Hochwasser Blog
Pingback: Donald Trump und das Pariser Klima Abkommen | Freie Abgeordnete
Pingback: Die Richtlinien der Politik bestimmen viele aber nicht die Kanzlerin | Freie Abgeordnete
Pingback: Das Narrativ, HILFE, das Narrativ | luisman's blog
https://luismanblog.wordpress.com/2016/11/24/das-narrativ-hilfe-das-narrativ/
Das gibt den Stand der Technik und die Komplexität sehr gut wider. Leider sind komplexe Themen schwer zu vermitteln und werden gerne durch Traumwelten oder Religionen ersetzt, die aggressiv gegen Andersgläubige vorgehen „er leugnet den Klimawandel“!
Ich nehme an dass wir noch mindestens 50 Jahre ernsthafte Forschung brauchen um das Weltklima einigermassen zu verstehen und sinnvolle Handlungsanweisungen zu geben.
Problematisch sind wohl die nächsten 20 Jahre. Soll man als Wissenschaftler oder Ingenieur zu all dem Unsinn schweigen der von Lobbygruppen propagiert werden weil man noch keine genauen Ergebnisse hat oder soll man mit dem aktuellen Kenntnisstand versuchen den grössten Unsinn zu verhindern?
Richtig – siehe Antwort auf Ihrem Blog. Aufklärung 4.0 tut not!
Pingback: Wer bestimmt eigentlich was wir wollen – Klimaschutz | Freie Abgeordnete
Pingback: Alternativen – Afrika Soli oder Energiewende | Freie Abgeordnete
Pingback: Der Gipfel der Inkompetenz – Umweltministerin Barbare Hendricks | Freie Abgeordnete
Pingback: Globale Erwärmung – Wissenschaftler zum Anstieg der Meerespegel | Freie Abgeordnete