spot_img

„Underhand Technique“: 0,1% Manipulation in der Klimaforschung reichen aus

Datum:

Bei einer neuen Hypothese macht man zunächst eine grobe, schnelle „feasibility probe“, ein Vorab-Test, um zu sehen, ob die These überhaupt einigermaßen plausibel ist, ob es sich lohnt, auf diese Hypothese viel Zeit und Energie zu verwenden. Die Behauptung, das Zocken von „Killerspielen“ hätte einen wichtigen, kausalen Zusammenhang mit Gewalttaten, ist zumindest plausibel genug, dass man sich das näher anschauen kann. Bis heute sagen Studien, dass es diesen signifikanten Zusammenhang nicht gibt. Wenn jemand stattdessen behauptet, Brot essen stünde im kausalen Zusammenhang mit Gewalttaten, weil fast alle Täter regelmäßig Brot essen, würde man vorn vorneherein abwinken. Es lohnt sich nicht, diesen Unsinn näher zu untersuchen.

Kommen wir zu einer anderen Hypothese: Eine gezielte, organisierte Manipulation in der Klimaforschung und den wesentlichen Computermodellen. Wäre eine solche Operation prinzipiell machbar? Meine antwort: Ja, durchaus, weil man nur ganz wenige versteckte Manipulationen einfügen müsste, die schwer zu finden wären. Gibt es Seilschaften, die die macht dazu besitzen, so etwas durchzuziehen? Ja. Gibt es ein überzeugendes Motiv? Ja. Wie sieht der Nutzen-Risiko-Quotient einer solchen Operation aus? Sehr günstig. Gäbe es viel bessere, einfachere Alternativen zu der Operation? Alternativen springen einem jetzt nicht wirklich ins Gesicht.

Der Mainstream tendiert eher dazu, Geheimoperations-Hypothesen vorschnell zu verwerfen, während Influencer aus den klassischen Verschwörungsmedien dazu tendieren, Thesen vorschnell als plausibel einzuschätzen und sich an denjenigen Hypothesen festzubeißen, die ihnen am meisten Aufmerksamkeit verschaffen.

Vergleichen wir kurz die Hypothese zu einer organisierten Täuschungsoperation beim Klima mit der Fake-Corona-Pandemie-Hypothese: Prinzipiell machbar? Nicht wirklich, da viel zu kompliziert. Gibt es Seilschaften, die die Macht dazu besäßen? Es müssten zig Länder koordiniert machen, was nicht wahrscheinlich ist. Motiv? Schwach. Länder wie China und Russland sind ohnehin klassische Diktaturen, während im Westen die Eliten keine klassische Diktatur wollen. Weder kollabiert die Wirtschaft, wo man den Virus angeblich als Ausrede benutzt, noch dauern die Lockdowns ewig, noch gibt es genügend Polizei im Westen für eine Coronadiktatur. Nutzen-Risiko-Verhältnis? Fatal. Die Operation würde definitiv auffliegen. Aktivisten meinen ja, das sei leicht zu entlarven, weil alles an der Pandemie fake sei, von den Toten bis hin zu den Infizierten. Der Schaden für die entlarvten Akteure wäre tödlich. Gäbe es bessere Alternativen für Operationen? Haufenweise. Einen wirklich gefährlichen Virus einzusetzen, ist billig, simpel und man würde den Täter nie finden. Praktisch alles an der resultierenden Pandemie wäre real. Ich habe trotz ihrer Implausibilität die Fake-Pandemie-Hypothese laufend untersucht, aber nichts Sensationelles dabei gefunden. Bei näherer Betrachtung lösen sich Sensationsmeldungen und ganze Argumentationsschienen in Luft auf.

Klima-Manipulation

Beim Klimawandel verwirft der Mainstream die Hypothese einer böswilligen Geheimoperation von vorneherein. Die wäre nicht plausibel. Aber diejenigen, die das verwerfen, sind in aller Regel keine Experten für Geheimoperationen, sondern Klimatologen, Politiker, Lobby-NGO-Aktivisten und Journalisten. Viele verschiedenen Wissenschaftler aus unterschiedlichen Bereichen würden ja gute Wissenschaft machen, also könne es keine böswillige Operation geben.

Die Verschwörungs-Influencer halten eine Manipulations-Operation für absolut plausibel. Diese Influencer sind aber auch keine Experten für Geheimoperationen, sondern Copy&Paste-Aktivisten. Als Akteure der Klimaforschungs-Manipulation wähnen sie die „internationalen Banker“, eine falsche Vorstellung die seit rund 200 Jahren zirkuliert. Sie kopieren ironischerweise Material zum Klima-Thema, das von Firmen wie EXXON (Rockefeller) oder Koch Industries gesponsert wird. Die Koch-Familie hatte auch die Organisation „John Birch Society“ bezahlt, aus der die Bestseller-Bücher stammen im Verschwörungs-Genre, die ins Deutsche übersetzt und schlicht abgeschrieben wurden. Sollte man sich wirklich blind verlassen auf EXXON und Koch bei einem so wichtigen Thema? Definitiv nicht. Vielleicht sind in dem Material bewusst Fehler und Schwächen eingebaut. Wenn insbesondere das angloamerikanische Imperium der Hauptverdächtige ist, muss man die Möglichkeit miteinberechnen, dass beide Seiten der Klimadebatte kontrolliert werden von demselben Akteur.

Nun ist es so, dass beim Thema Klimawandel eine fiese Geheimoperation so konstruiert sein kann, dass fast alle Wissenschaft, die da einfließt ins Klimathema, eine sehr hohe Qualität haben kann. Selbst wenn eine Trefferquote von 99,9% erreicht wird, wäre dennoch gezielte Manipulation möglich und umso besser versteckt. Es würde nichts nützen, die 99,9% gute Wissenschaft über Wolken oder Ozeane schlechtzureden und den Wissenschaftlern böse Absichten oder Korruption zu unterstellen. Bei einer großen, wichtigen Geheimoperation muss das allermeiste daran real sein. Aus diesem Grund halte ich nichts von der Fake-Corona-Hypothese, weil diese unterstellt, dass quasi alles Wesentliche an der Pandemie vorgetäuscht ist und jeder das ganz leicht erkennen könne.

Im Kern der Klimawandel-Forschung steht eine Mega-Rechnung, ein Master-Computermodell, das dir vorausberechnen soll, wie die Durchschnittstemperatur sich entwickeln wird, je nachdem, wieviel CO2 wir ausstoßen. Also zum Beispiel: Wir bräuchten CO2-Neutralität bis zum Jahr 2050, ansonsten steige die Temperatur so hoch, dass katastrophale Schäden entstehen.

Selbst kleine Fehler, fehlende Faktoren, Schwächen in der Programmierung, oder wenige gezielte Manipulationen können die ganze Rechnung soweit verzerren, dass das Ergebnis, das ausgespuckt wird, falsch ist. Vielleicht steigen die Temperaturen bei gleichbleibendem CO2-Ausstoß doch nicht um 2 Grad oder 1,5 Grad, sondern vielleicht nur um 1 Grad oder 0,5 Grad. Vielleicht sind die Schwankungen unerheblich. Vielleicht haben CO2-Einsparungen keinen nennenswerten Effekt.

Verschiedenste Wissenschaftsfelder (Wolken, Kosmos, Ozeane, Athmosphäre usw.) müssten praktisch zu glatt 100% korrekt liegen und diese Felder müssten zu 100% korrekt zusammengefügt werden und dann auch noch zu 100% korrekt übersetzt werden in Computer-Code. Bei kleineren, völlig anderen wissenschaftlichen Fragen reichen 99,9% oder 99% oder 95% Genauigkeit und man arbeitet darauf hin, dass sich die Genauigkeit noch künftig steigern werde. Wenn man sich aber anmaßt, zu behaupten, über ein ausreichend gutes Master-Computermodell zu verfügen, um Temperaturen 30, oder 50 oder 100 Jahre im Voraus vorherzusagen, dann darf man sich bei einer kritischen Beurteilung dieses Computermodells nicht mit weniger als Quasi-Perfektion zufrieden geben. Werden Billionen Euros verwettet auf dieses Modell und die damit verbundenen Mega-Risiken in Kauf genommen, erwarte ich schiere Perfektion und nicht 99,9%. Wenn ich beim simplen Autofahren eine leicht unsicherere Fahrpraxis anwende, komme ich damit vielleicht in 999 von 1000 Fällen davon. Ich gewöhne mich daran, dass meine Fahrweise in Ordnung ist, aber irgendwann beißt mir die statistische Wahrscheinlichkeit in den Hintern und ich erlebe einen schweren Unfall. Menschen verwenden Windows und gängige Server-Technologien über Jahre hinweg, bis ein „kritischer Bug“, also eine Schwachstelle im Code gefunden wird, die es Hackern erlauben würde, in Systeme einzubrechen und das ganze Sicherheitssystem zu umgehen.

Jeder, der eine Meinung hat zum Klimawandel, sollte dringend eine umfassende und extrem gründliche Überprüfung (Audit) verlangen vom sämtlichem Code, der benutzt wird in jedem einzelnen Computermodell, das einfließt in die klimarelevante Forschung. Ohne Mega-Audit würde ich niemals Billionen Dollars verwetten. Es gibt neben Source Code auch noch Compiler-Code und diverse Algorithmen, wo Fehler oder Manipulationen noch schwerer gefunden werden können. Diese Umstände machten sich die US-Behörden zunutze beim Skandal um die Firma Crypto AG, denn Hersteller von Verschlüsselungstechnologie. Regierungskunden aus aller Welt verwetteten im Prinzip die Sicherheit ihrer Herrschaft auf die Qualität der Produkte der Crypto AG, die eine Kommunikation nach möglichst komplizierten mathematischen Mustern verschwurbeln und dann nach dem Transport wieder ent-schwurbeln sollten. Man hatte in der Schwurbel-Technik die notwendigen Faktoren eingebaut, damit die Amerikaner solche verschlüsselten Kommunikationen spielend leicht wieder lesbar machen konnten. Trotz dieses Skandals vertrauen selbst regierungskritische Programmierer in den USA heute noch auf Standard-Algorithmen wie AES-256, obwohl jener im Auftrag von elitären Kreisen entwickelt wurde. Meine Einwände waren, dass ein grundlegendes Risiko von Hintertüren (gezielten Schwachstellen oder heimliches Verstecken des Schlüssels in der verschlüsselten Nachricht) existiert und dass Experten, die damals die aussichtsreichsten Algorithmen aus der Endrunde im Auswahlverfahren für den neuen amerikanischen Standard-Algorithmus für Regierung, Militär und Banken kurz untersuchen durften, Auffälligkeiten fanden: Potenzielle mathematische Schwächen in Form von sonderbaren Konstruktionsmerkmalen, die man nicht erwarten würde bei einem Algorithmus, der möglichst stark sein sollte. Die meisten aus der Computer-Szene wollten aber nichts Negatives hören über AES-256; weil das ja Leute davon abhalten könnte, ihre Daten zu schützen.

Wolkenforscher beispielsweise sind keine Programmierer und können deshalb nicht überprüfen, ob das jeweilige Klima-Computermodell, in das sie Daten füttern und das sie benutzen, frei ist von relevanten Fehlern und ob die Wolkenforschung korrekt in Computer-Codesprache übersetzt worden ist. Man muss ja das, was Wolkenforscher mühselig ergründet haben, irgendwie übersetzen in Computercode. Es ist bekannt, dass alle so und so viel Zeilen Code einfach Fehler passieren. Wenn jemand gezielt Fehler einfügt, kann derjenige sich herausreden, wenn er ertappt wird, mit der Haltung, es hätte sich um ein Versehen gehandelt.

Erinnern wir uns an den Volkswagen-Abgas-Skandal: Die Software war so manipuliert worden, dass sie es bemerkt, wenn das Fahrzeug auf einem Prüfstand steht und verändert dementsprechend Parameter, um bessere Abgas-Messungen zu erhalten, die unter Real-Bedingungen nicht erreicht werden. Sogenannte Underhand-Techniken können noch viel besser versteckt werden, sodass die Manipulationen bei einer Prüfung möglichst nicht gefunden werden und im Falle einer Entdeckung aussehen, wie unbeabsichtigte Fehler. Es gibt sogar regelmäßige Underhand-Wettbewerbe.

Zig klimarelevante Wissenschaftler können also theoretisch fast völlig richtig liegen mit Wolken, Ozeanen und Arktik-Eismassen, und trotzdem wäre das Master-Computermodell zur Vorhersage der letztendlichen Erd-Temperaturen dann fehlerhaft. Einzelne Felder wie Wind, Stürme, Ozeane, Weltall/Sonne, Packeis, Wolken usw. sind für sich genommen schon abhängig von kleineren Computermodellen. Man hört in der Presse immer wieder Berichte, dass irgendwo Eismassen rückläufig seien oder irgendwo sich lokal die Temperatur geändert hätte. Diese Einzelinformationen sind für sich genommen noch bedeutungslos für die Langzeitvorhersage der Durchschnittstemperaturen. Denn irgendwo anders kann ja im gleichen Zeitraum die Eismasse zugenommen haben, oder die Schneemasse. Man füttert die Einzelinformation in ein Computermodell und diese Computermodelle fließen ein in noch kompliziertere Computermodelle.

Steigt der Meeresspiegel bis 2100 wirklich um bis zu 82cm, wie der IPCC es anhand der Computermodelle behauptet? Vor 25 Jahren hatte man angefangen, Satelliten zu nutzen für Messungen, statt nur gewöhnliche Sensoren einzusetzen, die man an der Küste anbringen kann. Der Sensor ist fest verbaut und die fixe Montage ist also der konstante Wert gegen den man die Veränderungen des Meeresspiegels abgleicht. Was nutzen hingegen Satelliten als fixe Konstante? Einen sogenannten Terrestrial reference frame (TRF) der den dreidimensionalen Raum genau abbilden soll. Man errechnet den TRF mit Lasern von Satelliten, „Very Long Baseline Interferometry“ (VLBI), mit dem Global Positioning System (GPS), und Doppler Orbitography and Radiopositioning Integrated by Satellite (DORIS). Klingt kompliziert und ist es auch. Denn diese Technologien brauchen auch wieder eine Art Fixpunkt namens „Origin“ und bezieht sich auf den Massenmittelpunkt der Erde. Diesen kann man leider nur mit einer einzelnen Methode messen, nämlich „satellite laser ranging“ (SLR). Von dieser Laser-Technik hängt nicht nur die Messung des Meeresspiegels ab, sondern auch die Messung von Eismassen und Ozean-Dynamiken. Klingt toll, hat aber Haken: Die Technologie hat Probleme bei Tageslicht-Situationen und wird meistens bei Nachtverhältnissen verwendet.

https://ivscc.gsfc.nasa.gov/publications/gm2016/002_appleby_etal.pdf

Die Lasertechnik und VLBI liefern auch leider unterschiedliche Ergebnisse.

Dieser anhaltende Skalenunterschied ist faszinierend und weist auf systematische Probleme bei einer oder beiden Techniken sowie auf potenzielle Probleme bei der Standortbindung hin.

Man fürchtet sogenannte „versteckte Reichweiten-Fehler“. Will man mit einem TRF als Ausgangspukt Dinge im Millimeter-Bereich messen (wie etwa den Anstieg von Ozeanen pro Jahr), dann kann es Ungenauigkeiten geben.

https://www.researchgate.net/publication/253798061_Challenges_Towards_a_Uniform_Terrestrial_Reference_Frame

Genauer gesagt gibt es drei verschiedene Referenz-Rahmen: Den „ITRF2014“ von IGN, den „DTRF2014“ von DGFI-TUM und den „JTRF2014“ von JPL. Alle bedienen sich aus denselben Rohdaten, aber jene werden unterschiedlich zusammengefügt.

https://www.sciencedirect.com/science/article/pii/S167498471730188X

Für einige Zwecke reicht es, wenn die Messungen auf den Zentimeter genau sind, aber für die Messung des Meeresspiegels will man eine Genauigkeit besser als 1mm und weniger als 0,1 Millimeter Fehlerquote/Sonder-Abweichung bei langfristigen Messungen. Diese Genauigkeiten werden vorgegeben von dem „Global Geodetic Observing System“ der „International Association of Geodesy“ (IAG) und werden bisher nicht erreicht (Stand 2019).

Ohne den sogennanten „Celestial Reference Frame„-Wert (​CRF) kann man die Rechnung vergessen.

Da nur VLBI [Eine Technik namens „Very Long Baseline Interferometry“] die Ermittlung des CRF-Wertes ermöglicht, wird keine Technik-Kombination durchgeführt. Darüber hinaus wird auch keine Intra-Technik-Kombination durchgeführt, daher wurde der ICRF2 von nur einem VLBI-AC unter Verwendung eines einzelnen spezifischen Softwarepakets berechnet.

Ein „einzelnes Software-Paket“?

Darüber hinaus wurden ICRF und ICRF2 beide von einem einzelnen IVS-Analysezentrum unter Verwendung eines einzelnen Softwarepakets berechnet. Somit wird diese individuelle Lösung im Gegensatz zur TRF-Bestimmung nicht durch einen Kombinationsprozess kontrolliert und validiert, was ihre Robustheit verringert. Dies führt beispielsweise zu zu optimistischen Formfehlern.

Leider sei es „schwierig zum gegenwärtigen Zeitpunkt“, die notwendigen Verbesserungen umzusetzen, um die erwünschte Genauigkeit (besser als 1mm und weniger als 0,1mm Langzeitabweichung) in der Zukunft zu erreichen.

Laut dieser hyperkomplizierten Messmethode gab es einer Steigerung der Meerespegel um 3,2mm pro Jahr zwischen 1992 und 2013. Ab 1999 gab es aber Abweichungen zwischen den Messwerten und den Werten von altmodischen Küsten-Sensoren. Die NASA und Deutschland fanden an 2002 in der GRACE-Mission mit Satelliten und einer anderen Messmethode Steigerungsraten von 1,6mm pro Jahr, was zu den Sensoren passt. Steigt der Pegel also um 16 Zentimeter in 100 Jahren? Oder um 32 Zentimeter? Oder gar 82 Zentimeter, was einer der Werte ist die der IPCC benutzt? Wollen wir Billionen Dollars verwetten? Trauen wir den „einzelnen Software“-Paketen die verwendet werden?

Das Eis der Arktis und Antarktis wird mal mehr, mal weniger. Manchmal wird der Verlust von Eis ersetzt durch mehr Schneefall. Dr. Jay Zwally, ein Wissenschaftler bei der NASA und leitender Wissenschaftler beim „Ice Cloud und Land Elevation Satellite“-Projekt beobachtete, dass in der östlichen Antarktis die Verluste von Eismassen kompensiert werden von westlichen Eismassen. Man kommt auf ganz andere Werte als der 2013er IPCC-Bericht.

Leute vom British Antarctic Survey untersuchten Eisbohrkerne mit Vulkan-Asche-Schichten darin, die sich auf Ausbrüche datieren lassen. Ergebnis: Die Veränderungen in der Gegend sind nicht anders als Veränderungen der letzten rund 300 Jahre.

Wasserdampf hat bereits einen viel stärkeren Treibhaus-Effekt als CO2. Wasserdampf kann man aber nur schwer messen und das Computer-Modellieren von Wasserdampf ist unzuverlässig. Dampf tritt auf in unterschiedlicher Höhe, es gibt bestimmte Langwellen-Energie, die er absorbieren kann usw. Gängige Modelle nehmen an, dass mehr Dampf in bestimmten atmosphärischen Schichten vorhanden ist, besonders in den Tropen. Sind die Dampf-Modelle falsch, ist das Master-Modell des IPCC falsch. Wollen wir Billionen verwetten auf Dampf?

Selbst wenn verschiedenste Wissenschaftler 99,9% richtig liegen, fehlen immer noch die letzten 0,1%. So wie bei der aufwändigen Messmethode für Meerespegel die geforderte Genauigkeit nicht erfüllt wird.

Es werden Milliarden $ ausgegeben für Computermodelle. Teile von Code werden nach dem Lego-Bauklötzchen-Prinzip ständig wiederverwendet für neue Modelle, wodurch auch potenzielle Fehler mit übernommen werden, denn man hat leider nicht die Zeit, um die verwendeten Bauklötzchen alle rigoros zu überprüfen. Es erinnert an die vielen Regierungen, die Verschlüsselungsprodukte der Firma Crypto AG kauften, statt selber Verschlüsselungstechnologie zu entwickeln.

Deutschland hat es nicht fertig gebracht, eine großes Betriebssystem für Computer zu etablieren als Alternative zu dem amerikanischen Windows. Volkswagen hatte riesige Schwierigkeiten, ein Betriebssystem nur für Elektro-Autos zu entwickeln. An sich ist ein Elektroauto viel simpler mit weniger Teilen als ein klassisches Verbrennungsauto. Aber während in den USA Rednecks selbst in ihrer Garage alte V8-Motoren runderneuern können, hat Volkswagen Schwierigkeiten, Software für seine Elektroautos programmieren zu lassen. Hatte ich erwähnt, wie Programmierer Tesla vorwarfen, dass Elon Musk sich mehr für Software-Gimmicks interessierte, als für Sicherheitsprobleme?

Aber es heißt, Klima-Computermodelle seien so akkurat, dass sie 100 Jahren in die Zukunft sehen können. Bei den bisherigen Modellen muss man den Ozean, die Erdoberfläche und die Luft in Blöcke einteilen zur Berechnung. Diverse Kräfte/Energien gehen in den jeweiligen Block rein und raus. Was glauben Sie, wie groß diese Blöcke sind? Kubikmeter? Leider nein. Es werden Blöcke verwendet mit über 100 oder sogar 200 Kilometer Kantenlänge. Je kleiner die Blockgröße, umso schwerer wird es, die Gesamtberechnung durchzuführen, selbst mit Supercomputern. Und wie kennen nicht alle Faktoren, die in den Blöcken vorherrschen und von außen auf sie einwirken. Der IPCC gab zu, Modelle seien keine Werkzeuge für Vorhersagen, aber man tut trotzdem so, als wären sie das.

Im IPCC Report 2001 hieß es noch, man habe es mit einem non-linearen chaotischen System zu tun. Langzeit-Vorhersagen seien nicht möglich. Später zeigte man immer mehr Vertrauen in die Modelle und Vorhersagen. Mehr Daten, mehr Code und mehr Forschung können mehr Klarheit und Gewissheit bringen, aber auch mehr Fehler. Und wir erwarten schließlich Quasi-Perfektion von dem ganz großen Modell, das angeblich in der Lage ist, 50 oder 100 Jahre in die Zukunft zu schauen.

Edward Lorenz, der Begünder der Chaostheorie, meinte vor 40 Jahren, dass selbst Modelle, deren Blöcke nur einen Kubikmeter groß sind, zusammen mit Supercomputern nicht ausreichen würden, um auch nur einen Monat im Voraus das Wetter vorherzusagen. Man spricht auch vom „Butterfly Effect“ oder vom sprichwörtlichen Sack Reis, der in China umfällt, aber weitreichende Folgen haben kann.

Lorenz gab einst einen Wert ein in ein Wetterprogramm ein von 0,506 anstatt den ganz korrekten Wert von 0,506127 einzutippen. Diese Abweichung führte zu stark unterschiedlichen Ergebnissen. James Glieck gewann den Pulitzer Preis für sein Buch von 1988 „Chaos, Making a new science“.

Die Modellierer dürfen ihre Modelle frisieren, „tunen“, sogar während sie laufen. Das ist so, als würde man den Programmierern von Volkswagen erlauben, während den Abgasmessungen der staatlichen Prüfer auf die Software zuzugreifen, um „Anpassungen“ vorzunehmen. Viele Modelle waren lange Zeit so fehlerhaft, dass sie ein Verkochen ganzer Ozeane vorherberechneten. Um das Modell weniger unsinnig zu machen, durfte man einfach die passenden Faktoren hineinrechnen.

Ab 1998 entwickelten sich die Temperaturen ganz anders als die Modelle der letzten 40 Jahre vorhersagten. In beleidigtem Ton meinten Forscher, es habe nur eine Verlangsamung der Steigung der Oberflächenerwärmung gegeben. Der Langzeit-Trend vom Jahr 1880 bis 2017 würde klar nach oben gehen: Von 13,333 Grad Celsius auf 14,444 Grad. Für die Verlangsamung der Erwärmung machte man natürliche Schwankungen im Pazifik verantwortlich, Sonnenzyklen und Vulkanasche-Wolken.

https://www.climate.gov/news-features/climate-qa/did-global-warming-stop-1998

Warum konnten aber die Klima-Modelle, auf die wie Billionen verwetten, diese kühlenden überraschenden Faktoren nicht vorhersehen? Was ist, wenn Sonnen-Einflüsse sich künftig stärker verändern und andere kosmische Faktoren? Was ist, wenn jemand ein paar andere Sachen übersehen hat oder der Code nicht so funktioniert wie er sollte? 2001 hieß es noch vom IPCC, die Modelle taugen nicht für Vorhersagen. Das heißt, erst ab 2001 hat man überhaupt erst ernsthaft behauptet, die Modelle könnten die Zukunft vorhersagen. Die minimale Erwärmung zwischen 2001 und 2017 hätte man anhand alter Aufzeichnungen auch einfach erraten können. Man hätte sich vertan mit den Satelliten und den damit verbundenen Modellen. Nach einer Überprüfung zeigten die Satelliten plötzlich auch ab 1998 eine Erwärmung. Außerdem würde ja die meiste Erwärmung von den Ozeanen abgefangen werden. Kennt man sich mit den Ozeanen aus? Teilweise. Bojen messen die Oberflächentemperatur. Für die Tiefe ist die Datenlage nicht gut genug. Und natürlich füttert man die Daten in ein Modell. Ein Software-Paket. Schwankt die Oberflächentemperatur nach unten, erklärt man das mit Schwankungen bei den Ozeanen. Und erhitzende Ozeane würde ja wieder das Eis schmelzen und den Meeresspiegel steigen lassen.

Wie misst man eigentlich die Ozeantemperaturen seit den 1980er Jahren? Hauptsächlich durch Satelliten. Die NASA verwendet zwei Satelliten dafür namens Terra und Aqua die den Planeten rund 14 mal pro Tag umkreisen. Die messen die Oberfläche der Ozeane. Ansonsten gibt es Mess-Bojen, die auch nur die Oberfläche messen. Was ist mit Messgeräten, die wenigstens 15 Meter tief gehen (sogenannte Drifter)? Es gibt davon rund 3000. Mit 166,2 Millionen Quadratkilometern ist der Pazifische Ozean mit Abstand das größte Meer der Welt. Macht eine Boje pro 55.333 Quadratkilometer. Ungefähr die Größe des Landes Kroatien. Und wir reden von einem dreidimensionalen Ozean mit bis zu 11 Kilometern Tiefe. Immerhin können sich Bojen/Drifters bewegen.

https://podaac.jpl.nasa.gov/SeaSurfaceTemperature

Diese oberflächliche Überwachung der Bojen durch Satelliten kann ins Geld gehen:

Die Kosten für die Satellitenverfolgung pro Tag betragen etwa 10 US-Dollar, was für kontinuierliche einjährige Flugbahnen ziemlich teuer wird. Um die Kosten zu senken, wurden einige Drifter so programmiert, dass sie nur einmal alle drei Tage zu senden oder nur ein Drittel pro Tag lang.
Dadurch entstehen Lücken in den Trajektorien, die interpoliert werden müssen.

https://www2.whoi.edu/staff/prichardson/wp-content/uploads/sites/75/2018/11/AA-Richardson-2001-Drifters-and-Floats-Encyclopedia-of-Ocean-Sciences.pdf

Die Forscher sind sich uneinig, ob es sinnvoll ist, oder nicht, auch verstärkt in tieferen Regionen zu messen. Sorry, aber ich erwarte Beinahe-Perfektion, um Billionen Dollars zu verwetten. Der Ozean soll die allermeiste Erwärmung abfangen und diese soll dann zeitverzögert ein ernstes Problem werden. Soll. Das sagt uns eine einzelne einsame Mess-Boje in 15 Meter Tiefe pro 55.000 Quadratkilometer Ozean, die vielleicht nur alle drei Tage einmal sendet. Je tiefer man messen will, umso teurer werden die Geräte. Das ARGO-Programm hat 4000 Messgeräte, die zumeist in 1000 Metern tief messen. Klingt nicht schlecht, wäre da nicht der Umstand, dass die Experten gravierende Mängel beklagen: Das ohnehin auf „kosteneffizienter“, also billiger Technik basierende System, leide an „relativ flacher Finanzierung“. Man wünscht sich eine „Verbesserung der Abdeckung in kritischen Regionen wie dem äquatorialen Band, wo eine höhere [Mess-] Auflösung erforderlich ist, und den westlichen Grenzregionen, in denen das mesoskalige „Rauschen“ hoch ist“.

Und man will dass Argo mit „unserer Endbenutzer-Community zusammenarbeitet“ (gemeint sind die Forscher), „um die Verwendung von Argo-Daten in Vorhersagesystemen und -diensten zu verbessern.“

Nur ein kleiner Bruchteil der Mittel, die benötigt werden, um die ehrgeizigen Community-Anfragen für ein erweitertes Argo-Programm zu unterstützen, kann derzeit identifiziert werden. Für Argo ist es wichtig, seine zukünftigen Herausforderungen als ein einziges integriertes Programm zu meistern. Die gegenwärtigen Elemente von Argo – Core, Deep und BGC – und seines Datenmanagementsystems sind nicht trennbar, und alle anderen zukünftigen Verbesserungen werden ebenfalls als Beiträge zu den einheitlichen Bemühungen betrachtet.

https://www.frontiersin.org/articles/10.3389/fmars.2019.00439/full

Hack

Es gab einen Hack gegen die Universität von East Anglia 2009 und sorgte für Kontroversen. Aus Emails von Klimaforschern wurde fleißig zitiert, um zu zeigen, dass diese Daten zurückhielten und schummelten bei den Modellen.

Eine „unabhängige“ Untersuchung von Sir Muir Russell ergab, dass alle Forscher unschuldig seien. Er eng verbunden mit der Royal Society of Edinburgh und ein Deputy Lieutenant der Krone

Professor Phil Jones, der durch die Enthüllungen am meisten in Verruf geratene Wissenschaftler, durfte seinen Posten fortführen, obwohl die Untersuchung schlussfolgerte, dass zumindest Teile von Jones‘ Daten irreführend waren und er auf Anfragen über Klimadaten, die unter Großbritanniens Gesetzen zur Informationsfreiheit eingereicht wurden, nicht offen reagierte.

Unter den tausenden E-Mails der CRU, die an die Öffentlichkeit gelangten, befanden sich Mitteilungen von Jones in denen er seine Kollegen unmissverständlich aufforderte, Informationen von ihren Computern zu löschen die die Wissenschaft hinter ihren veröffentlichten Ergebnissen in Frage stellen könnten.

Am meisten Aufmerksamkeit erhielt folgendes Zitat von Phil Jones:

„I’ve just completed Mike’s Nature trick of adding in the real temps to each series for the last 20 years (ie, from 1981 onwards) and from 1961 for Keith’s to hide the decline.“

Der „Trick“ soll eine clevere wissenschaftliche Methodik gewesen sein, und „decline“ meinte etwas mit Baumringen. Aber er hätte auch schreiben können: Ich benutze Mikes Methode um bessere Ergebnisse zu bekommen für die Baumringe. „Trick“ und „verstecken“ sind starke Worte. Dieser Satz zog viel Aufmerksamkeit auf sich. Wichtiger war wohl etwas anderes:

Die von Hackern erbeuteten Dateien enthielten auch in Fortran geschriebene Programme, Programmierkommentare und eine Readme-Datei, die bei Programmierern große Aufmerksamkeit erregte. Das Protokoll umfasste mehr als vier Jahre Arbeit eines Programmierers, der durch Probleme bei der Verknüpfung von Klimadaten aus zahlreichen internationalen Quellen frustriert war. In einem BBC Newsnight-Bericht sagte der Software-Ingenieur John Graham-Cumming, der Code sei „unterhalb von dem Standard, den man von [gewöhnlicher] kommerzieller Software erwarten würde“, weil ihm eine klare Dokumentation oder eine Audit-Historie fehlte. Graham-Cumming berichtete auch, ein Problem in der Fehlerbehandlung des Codes gefunden zu haben, der Daten ohne Warnung ignorieren würde.

AlexBenesch
AlexBenesch
Senden Sie uns finanzielle Unterstützung an: IBAN: DE47 7605 0101 0011 7082 52 SWIFT-BIC: SSKNDE77 Spenden mit Paypal an folgende Email-Adresse: [email protected]
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img

Related articles

Recentr LIVE (25.04.24) ab 19 Uhr: Weltrevolution

China und Russland setzen fanatisch auf den einen Faktor, in dem sie dem Westen voraus sind: Spionage. https://youtu.be/raGKYP0bewg

Geheimdienste schufen die moderne Verschwörungsmythologie

Rechtsextreme, eine Mehrheit der Muslime und zu einem gewissen Grad auch die Linken basieren ihre Sicht auf die...

Worin Krahs China-Träume enden würden

Kommentar Maximilian Krah darf nicht mehr im Wahlkampf für die AfD auftreten und sein Assistent ist nun in Haft...

SPIEGEL: Geheimdienstler haben angeblich Video von Bystron (AfD) mit mutmaßlicher Übergabe von Bargeld

Kommentar Als die CDU im Spendensumpf steckte, raunte Helmut Kohl noch etwas von Ehre und verschwieg die Geldquellen, bei...