spot_img

Fragwürdiger Computer-Code regiert die Klimapolitik

Datum:

Ohne Computercode geht nichts in der Klimaforschung. Ein grundlegendes Problem dabei ist, dass die Klimaforscher meistens nichts oder zu wenig von Code verstehen und die Coder wiederum nichts vom Klima verstehen.

Steve Easterbrook von der Computerwissenschafts-Fakultät der University of Toronto schrieb 2010 von „erheblichen Schwächen“ bei der Fähigkeit, die gewaltige Software-Infrastruktur zu validieren. Nicht nur ist der Berg an Software zu groß und die Aufgabe extrem komplex, Klimaforschung angemessen in Computercode zu übersetzen, sondern es kommt noch das erhebliche Problem dazu, dass Software oftmals direkt von Klimaforschern selbst geschrieben wird, obwohl sie dafür eigentlich gar nicht qualifiziert sind. Easterbrook beginnt sein Paper mit einem Bekenntnis, dass er am Global Warming glaubt, aber lässt dann vernichtende Kritik vom Stapel an der Art und Weise, wie die globale Erwärmung kalkuliert wird.

Der Großteil dieser Software wird von den Klimawissenschaftlern selbst erstellt, die wenig oder keine Ausbildung in Softwaretechnik haben. Dadurch schwankt die Qualität dieser Software enorm.

Auch wenn im Laufe der Zeit der Zugang zu diversen Rohdaten erleichtert wurde für Personen außerhalb wissenschaftlicher Zirkel, so nützen einem die Rohdaten fast nichts zu Prüfzwecken, weil die Datenverarbeitung mit Hilfe von Software viel zu komplex ist. Easterbrook nennt den Zugriff auf die Rohdaten „nahezu irrelevant“.

Im Jahr 2010 beschrieb er es als unrealistische „Wunschvorstellung“, in naher Zukunft überhaupt in der Lage zu sein, die ganzen einzelnen Schritte und Software-Werkzeuge nachvollziehen zu können, mit denen Rohdaten bearbeitet werden.

Bestimmte Rechenergebnisse sind auch nicht reproduzierbar, weil Rechenoperationen oftmals an einen bestimmten Supercomputer gebunden sind, kleinste Schwankungen das Ergebnis verändert, Änderungen an der Hardware vorgenommen wurden, am Compiler oder an Konfigurationsdaten. D

Gewöhnliche Software wird programmiert für einen spezifischen Zweck, also beispielsweise die Steuerung von Maschinen, die Überwachung von Parametern in Fahrzeugen, die Bearbeitung von Text oder Videoaufnahmen etc. Keiner von diesen Zwecken ist so komplex und verwirrend, wie der Versuch, das Erdklima der Zukunft vorherzusehen oder das Klima von vor 1000 Jahren zu schätzen.

https://www.researchgate.net/publication/221560287_Climate_Change_A_Grand_Software_Challenge

Die Fachpublikation “Issues in Science and Technology” veröffentlichte 2015 einen Artikel von Andrea Saltelli, Philip Stark und weiteren Autoren, der bereits in der Überschrift fragt, ob Klima-Computermodelle nicht vielleicht ein Kampf gegen Windmühlen sind. Unterhalb der Überschrift heißt es im Kurz-Fazit, dass die Computermodelle immer noch so schlecht sind, dass sie nicht verwendet werden sollen als Grundlage für Entscheidungen zur Klimapolitik. Man macht sich lustig über Computermodelle, die haargenau die Zukunft vorhersagen wollen, während es nicht einmal gelungen war, den Kollaps des Häusermarktes und die darauffolgende Wirtschaftskrise vorherzusehen und davor zu warnen.

Es wurde versucht, bei den großen Klima-Computermodellen wie dem HadSM3 das Ausmaß der Unsicherheiten (also die Fehlerquote) abzuschätzen, aber wie soll man das bewerkstelligen, wenn man auch dafür wiederum nur Computermodelle benutzen kann, die genauso eine Fehlerquote aufweisen. Kann man also wirklich mit gutem Gewissen behaupten, dass die globalen Temperaturen definitiv um 1,5 oder 2 Grad Celsius steigen werden innerhalb eines bestimmten Zeitraums und bei einem bestimmten CO2-Ausstoß? Anscheinend nicht.

Die Klimaforscher und Coder wissen also nicht einmal genau, wie viel sie nicht wissen. Selbst immer leistungsfähigere Computer und mehr Forschung machen das Problem künftig nicht kleiner, sondern werden eine immer größere Fehlerquote nahelegen.

Issues in Science and Technology Vol. 31, No. 3 (SPRING 2015), pp. 79-84 (6 pages)

https://www.researchgate.net/publication/273776405_Saltelli_A_Stark_PB_Becker_W_and_Stano_P_2015_Climate_Models_As_Economic_Guides_Scientific_Challenge_or_Quixotic_Quest_Soon_to_appear_in_the_Spring_2015_volume_of_Issues_in_Science_and_Technology_wwwi

Auf der Webseite der Hoover Institution der Stanford University wurde 2017 ein Artikel veröffentlicht von David R. Henderson und Charles L. Hooper, in dem drei wesentliche Probleme benannt werden bei Klima-Computermodellen. Bereits jeder einzelne davon für sich genommen wirke sich dramatisch negativ aus auf die Zuverlässigkeit der Vorhersagen.

https://www.hoover.org/research/flawed-climate-models

2019 erschien ein wichtiges neues Klimapapier, das in Nature (Climate Change) veröffentlicht wurde und von Viktoria Eyring von der Universität Bremen und 28 Co‐​Autoren aus aller Welt verfasst wurde.

Ein wichtiges Thema, das erst noch vollständig behandelt werden muss, ist das Ausmaß, in dem sich Modellfehler auf die Qualität von Klimaprojektionen und nachfolgenden Folgenabschätzungen auswirken. Viele CMIP-Modelle teilen sich Komponenten oder sind Varianten eines anderen Modells im Ensemble und sind daher nicht wirklich unabhängig voneinander. Dies hat das Potenzial, die Multimodell-Ergebnisse auf eine Weise zu verzerren, bei deren Erforschung wir erst am Anfang stehen.

In der Öffentlichkeit wird also der Eindruck erweckt, die Klima-Computermodelle seien bereits gut genug, um die Temperaturen der Zukunft genau vorherzusehen, aber in Wirklichkeit steht man im Jahr 2019 erst am Anfang bei dem Unterfangen, die Probleme und Schwächen der verwendeten Computermodelle gründlicher zu untersuchen.

https://www.researchgate.net/publication/339936633_Taking_climate_model_evaluation_to_the_next_level

Man findet regelmäßig Beispiele, wo die momentanen, beobachtbaren Klimaverhältnisse nicht zu den Computermodellen passen, ohne zu verstehen, warum es nicht passt. Wenn in einem bestimmten Gebiet ein Wetter-/Klima-Phänomen auftritt, das nicht zum Computermodell passt, dann kann die Ursache für das Phänomen in einem anderen, weit entfernten Gebiet liegen.

Bei einer Klima-Zukunfts-Vorhersage-Software bräuchte es Daten aus der Zukunft, die aber naturgemäß nicht beschaffbar sind, um erhebliche Verbesserungen zu erzielen. Stattdessen versucht man, ungenügende Computermodelle mit Hilfe von ungenügenden Computermodellen zu verbessern.

Es existiert zwar eine recht Hohe Anzahl an Computermodellen, die im Zusammenspiel verwendet werden, in der Hoffnung, damit die Genauigkeit der Vorhersagen zu verbessern, aber es handelt sich um eine Scheinvielfalt:

Einige der nominell unterschiedlichen Modelle im CMIP-Archiv teilen einzelne Komponenten oder Parametrisierungen oder repräsentieren in gleicher Weise Schlüsselprozesse. Dies kann zu gemeinsamen Verzerrungen führen, die das Potenzial haben, die Wirksamkeit der leistungsbasierten Gewichtung zu beeinträchtigen und künstlich-starke aufkommende Einschränkungen zu schaffen.

AlexBenesch
AlexBenesch
Senden Sie uns finanzielle Unterstützung an: IBAN: DE47 7605 0101 0011 7082 52 SWIFT-BIC: SSKNDE77 Spenden mit Paypal an folgende Email-Adresse: [email protected]
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img

Related articles

Friends & Enemies (04/28/24) Vietnam War

Full show with Jeff Nyquist and Alex Benesch on the Vietnam war, the traitors and the controlled student...

Prozess gegen „Reichsbürger“-Gruppe um Prinz Reuß beginnt heute

Kommentar In Stuttgart-Stammheim beginnt heute der erste Prozess gegen Mitglieder der Gruppe um Prinz Reuß. Wegen Verbindungen mancher Personen...

Putin, Sachsensumpf und die Unterwanderung der rechten Szene

Der sogenannte Sachsensumpf-Skandal dreht sich um ein vermutetes altes Stasi-/KGB-Netzwerk, das nach der Wende operiert haben soll, um...

Das gemeinsame Fundament des Links- und Rechtsextremismus

Es ist heute von enorm hoher Bedeutung, die Kern-Mythen des Links- und Rechtsextremisten zu zerstören. Es mag überraschend...