spot_img

Führende Ozean-Forscher kritisieren heftig das ARGO-Programm mit tausenden Bojen für Temperatur-Messungen

Datum:

Es heißt, die meiste Erwärmung würde von den Ozeanen abgefangen werden. Kennt man sich mit den Ozeanen aus? Teilweise. Bojen maßen lange Zeit die Oberflächentemperatur. Für die Tiefe ist die Datenlage nicht gut genug. Und natürlich füttert man die Daten in ein Computer-Modell.

Insgesamt werden zuwenige Bojen verwendet, obwohl diese billig sind. Mit 166,2 Millionen Quadratkilometern ist der Pazifische Ozean mit Abstand das größte Meer der Welt. Verwendet man 3000 Bojen, macht dies eine Boje pro 55.333 Quadratkilometer. Ungefähr die Größe des Landes Kroatien. Und wir reden von einem dreidimensionalen Ozean mit bis zu 11 Kilometern Tiefe.

https://podaac.jpl.nasa.gov/SeaSurfaceTemperature

Die Bojen und die Überwachung durch Satelliten kostet eigentlich nicht viel, aber seltsamerweise wird wenig Geld dafür ausgegeben:

Die Kosten für die Satellitenverfolgung pro Tag betragen etwa 10 US-Dollar, was für kontinuierliche einjährige Flugbahnen ziemlich teuer wird. Um die Kosten zu senken, wurden einige Drifter so programmiert, dass sie nur einmal alle drei Tage zu senden oder nur ein Drittel pro Tag lang. Dadurch entstehen Lücken in den Trajektorien, die interpoliert werden müssen.

https://www2.whoi.edu/staff/prichardson/wp-content/uploads/sites/75/2018/11/AA-Richardson-2001-Drifters-and-Floats-Encyclopedia-of-Ocean-Sciences.pdf

Der Ozean soll die allermeiste Erwärmung abfangen und diese soll dann zeitverzögert ein ernstes Problem werden. Je tiefer man messen will, umso teurer werden die Geräte. Das ARGO-Programm hat 4000 Messgeräte, die zumeist in 1000 Metern tief messen. Klingt nicht schlecht, wäre da nicht der Umstand, dass die Experten gravierende Mängel beklagen: Das ohnehin auf „kosteneffizienter“, also billiger Technik basierende System, leide an „relativ flacher Finanzierung“. Man wünscht sich eine „Verbesserung der Abdeckung in kritischen Regionen wie dem äquatorialen Band, wo eine höhere [Mess-] Auflösung erforderlich ist, und den westlichen Grenzregionen, in denen das mesoskalige „Rauschen“ hoch ist“.

Das ist eine höfliche Formulierung für den Umstand, dass wegen erheblichem Finanzierungsmangel gerade in wichtigen Meeresregionen zu wenig gemessen wird. Die Mess-Bojen kosten pro Stück (je nach Qualitätsstufe und Sensoren) ein paar tausend Dollar, was bedeutet, dass man eintausend weitere Bojen für wenige Millionen Dollars anschaffen könnte, um die Abdeckung zu verbessern. Wir sollen Billionen verwetten auf Klima-Computermodelle, aber bei der Datenbeschaffung aus den Ozeanen wird geknausert um ein paar Millionen? Warum haben nicht längst stinkreiche Gönner mal eben 100 Millionen $ bereitgestellt für neue Bojen?

Die Ozean-Forscher, die vom ARGO-Projekt mit Daten versorgt werden, fordern, dass Argo mit „unserer Endbenutzer-Community zusammenarbeitet“ (gemeint sind die Forscher), „um die Verwendung von Argo-Daten in Vorhersagesystemen und -diensten zu verbessern.“ Man ist also unzufrieden mit der Art und Weise, wie man von der ARGO-Führung behandelt wird und wie ARGO den Input der Forscher bisher ignoriert. Schon verblüffend: Es fehlt an zwei extrem wichtigen Dingen, die eigentlich kein Problem sein sollten: Eine angemessene Finanzierung und ein normaler wissenschaftlicher Austausch.

Nur ein kleiner Bruchteil der Mittel, die benötigt werden, um die ehrgeizigen Community-Anfragen für ein erweitertes Argo-Programm zu unterstützen, kann derzeit identifiziert werden. Für Argo ist es wichtig, seine zukünftigen Herausforderungen als ein einziges integriertes Programm zu meistern. Die gegenwärtigen Elemente von Argo – Core, Deep und BGC – und seines Datenmanagementsystems sind nicht trennbar, und alle anderen zukünftigen Verbesserungen werden ebenfalls als Beiträge zu den einheitlichen Bemühungen betrachtet.

https://www.frontiersin.org/articles/10.3389/fmars.2019.00439/full

Unterhalb einer bestimmten Meerestiefe liegen 50% des Wasservolumens und genau dort herrscht eine „substantielle Variabilität“ vor.

Änderungen des Wärmegehalts der Tiefsee (>2000 dbar) wurden über dekadische Intervalle unter Verwendung eines spärlichen Netzwerks von sich wiederholenden hydrographischen Abschnitten geschätzt, die in quasi-dekadischen Intervallen beprobt werden (Talley et al., 2016), daher sind nur dekadische Schätzungen möglich und Unsicherheiten aufgrund der spärlichen Beobachtungen betreffen etwa 2/3 der Größe des Signals.

Das Unter-Projekt „Deep ARGO“ werde deshalb dringend benötigt, heißt es noch von den Top-Forschern im Jahr 2019. Das heißt, seit mehreren Jahren ist die Energiewende bereits im vollen Gange, obwohl man sich nicht genügend auskennt mit den Ozeanen.

Die Daten von den verschiedenen Messbojen werden von Satelliten übertragen und bearbeitet, korrigiert und nach einem aufwändigen Prozedere dann bereitgestellt auf Internet-Servern, auf die dann die verschiedenen Forscher aus aller Welt zugreifen. Forscher fordern, dass man endlich ein Phänomen berücksichtigt namens „Turbulenzen-Mischung“, das bedeutende Auswirkungen hat auf die Verteilung von Wärme-Energie. Will man auf der Basis von Computermodellen Vorhersagen treffen können über Temperaturen und Meerespegel, die „wertvoll sind für die Gesellschaft“, dann muss man zwingend die Durchmischungen von Ozean-Wasser verstehen. Das ist eine richtig harte Kritik am bisherigen ARGO-Projekt und den bisherigen Computermodellen.

Trotz ihrer Bedeutung sind Beobachtungen von Meeresturbulenzen äußerst spärlich, insbesondere in der Tiefsee. Abdrücke turbulenter Transportprozesse im großskaligen Ozeanzustand, wie sie von Core Argo leicht beobachtet werden, ermöglichen eine Inversion von Diffusivitätskarten, aber direkte Mischungsmessungen sind erforderlich, um inverse Schätzungen weiter einzuschränken (Forget et al., 2015).

https://www.frontiersin.org/articles/10.3389/fmars.2019.00439/full

Im Jahr 2019 beklagen Top-Forscher den erheblichen Mangel, dass man Wärmeaustausch durch Wasserturbulenzen nicht genug versteht:

In größeren Maßstäben wird der Fluss von wesentlichen Faktoren (z. B. Hitze oder Salzgehalt), der durch Turbulenzen verstärkt wird, entscheidend für das Verständnis von Wetter und Klima.

Man redet also nicht von einer Kleinigkeit, sondern von Zweifeln an der Zuverlässigkeit der Computermodelle, die mit unzureichenden ARGO-Daten gefüttert werden, und Vorhersagen treffen über Klimawandel. Neuerdings stünde endlich eine Technologie bereit, um mehr Klarheit zu bekommen, sogenannte „shear and scalar microstructure turbulence measurements“. (Pujiana et al., 2018)

Jüngste Arbeiten deuten auf eine beträchtliche zeitliche und räumliche Inhomogenität bei der oberflächennahen und tiefozeanischen Vermischung hin. Ankerbojen-Messreihen in den oberen paar 100 Metern (Moum et al., 2009, 2013) haben beispielsweise die Bedeutung von Unterwasser-Turbulenzflüssen für die Festlegung des Jahreszyklus der tropischen Meeresoberflächentemperatur (SST) identifiziert und eine Variabilität festgestellt auf langen Zeitskalen, die ENSO beinhalten. Darüber hinaus zeigen Durchmischungsmessungen in der Tiefsee (Alford et al., 2011) eine starke Intermittenz, was auf die Notwendigkeit nachhaltiger globaler Messungen über die gesamte Wassersäule hinweist.

Die Mängel sind so bedeutend, dass das „Climate Process Team on Ocean Mixing“ (MacKinnon et al., 2017) darüber einen regen Austausch hatte. Man zweifelt an bisherigen Computermodellen für Vorhersagen.

Die zugrunde liegenden Annahmen dieser Methoden sind unsicher und können dort am unzuverlässigsten sein, wo die vermuteten Turbulenzen am größten sind. […] Es ist bekannt, dass die Annahmen sich bei diesen Methoden in der Nähe von Grenzen als falsch erweisen, mit Abweichungen zwischen Parametrisierungen und direkten Messungen von bis zu einem Faktor von 10 (Waterman et al., 2014).

Eine Abweichung um den Faktor 10? Eine zusätzliche Null? Die Forscher beklagen heftig, dass trotz der Verfügbarkeit von besserer, günstiger Technik die dringend notwendigen Verbesserungen nicht umgesetzt werden. Bestehende Beobachtungen, basierend auf den ARGO-Bojen, seien ungenau, weil die Durchmischungen von Wasser nur an wenigen Punkten gemessen werden (Waterhouse et al., 2014).

Eigentlich müsste man die Bojen-Flotte drastisch vergrößern, um endlich die Wasser-/Wärme-Verwirbelungen anständig zu messen, aber leider werde dies verhindert wegen „begrenzter Budgets“. Es werden immer mehr Sensoren in die Bojen gepackt, die andere Dinge messen als Temperatur und somit entstehen riesige neue Datenberge, die eine „Belastung“ darstellen und ablenken von den wichtigen Parametern (wie Temperaturen), auf die man sich konzentrieren sollte. Es gibt Probleme mit den Sensoren, die u.a. den Salzgehalt messen. Das Core-Argo-Programm (das sich im Gegensatz zu Deep Argo nicht auf die Tiefsee konzentriert) verlässt sich fast komplett auf die Sensoren vom Typ SBE41 und SBE41CP von der Firma SeaBird Electronics (SBE) für die Messungen von Temperaturen und Salzgehalt. Der SBE-Konzern wurde 2008 übernommen von Danaher und man kaufte sich auch noch WET Labs und Satlantic. Unter dem Namen Sea Bird Scientific ist man nun Weltmarktführer. Es gibt keinen Wikipedia-Eintrag zu SeaBird, dafür aber zu der Danaher Corporation, die im S&P500 gelistet ist und von zwei Brüdern gegründet worden war, deren Vater in einem jüdischen Waisenheim in New York City aufwachsen musste. Danaher hat seinen Sitz in Washington D.C. und war ab 1984 im Steuerparadies Delaware gemeldet, ein winziger Bundesstaat der von dem DuPont-Clan kontrolliert wird. Nicht nur sind zwei Drittel der Top-Firmen dort gemeldet, sondern auch amerikanische Geheimdienste nutzen Delaware für Tarnfirmen. Ein Doktor Jochen Klinke, der seinen Abschluss an der Heidelberger Universität gemacht hatte, schuf den Prototypen für den ursprünglichen Meeres-Sensor um Temperaturen und Salzgehalt zu messen.

Forscher beklagen, dass fast alle ARGO-Bojen die Sensoren einer einzigen Firma (SeaBird, Danaher) benutzen. Auch die Tiefsee-Bojen nutzen Sea-Bird-Sensoren. Forscher beklagen, dass Unsicherheiten bestehen bei der Art und Weise, wie die Bojen sich bewegen, vor allem in Regionen wo es viel Eis gibt. Man hofft (!) dass künftig die Genauigkeit der Sensoren soweit verbessert werden, dass sie den Vorstellungen entspricht der „Deep-Argo-Community“.

Auch die nächste Kritik ist höflich formuliert, folgt auf ein grundsätzliches Lob, ist aber harsch: Weil immer mehr Daten gemessen werden (abseits von Temperaturen) und wegen Geldmangel muss wenig Personal die Datenberge verwalten und aufbereiten. Es fehlt an Bojen-Messungen in saisonalen Eisregionen, wo der Bojen-Betrieb erschwert ist. Im tropischen Pazifik bräuchte man eine doppelt so hohe Messdichte wie bisher. Man braucht mehr Bojen in den „Western Boundary Current“-Regionen. Der verwendete Computer-Code sollte besser geteilt werden unter Programmierern, weil ansonsten Programmierer, die nicht mehr länger an ARGO-Code arbeiten, ihr Wissen anderswo hin mitnehmen, ohne es mit anderen/neuen Programmierer bei ARGO vollständig zu teilen. Anscheinend reißen sich talentierte Programmierer nicht gerade um Jobs für ARGO:

Es bleibt eine Herausforderung für das ADMT, weiterhin interessierte und talentierte Mitglieder für die Argo Data-Teams zu finden und sie angemessen und zeitnah zu schulen.

Man erwägt sogar, wegen dem Mangel an qualifiziertem Personal, künstliche Intelligenz einzusetzen, um die Datenberge zu bearbeiten. Damit wären die Daten in den Händen von noch selteneren Spezialisten für KI. Man will u.a. herausfinden, wie zuverlässig die Sea-Bird-Sensoren in den Bojen wirklich sind. Es wird zugegeben, dass die ARGO-Daten einen entscheidenden Einfluss haben auf die Einschätzung zum Klimawandel.

Pegel

Steigt der Meeresspiegel bis 2100 wirklich um bis zu 82cm, wie der IPCC es anhand der Computermodelle behauptet? Vor 25 Jahren hatte man angefangen, Satelliten zu nutzen für Messungen, statt nur gewöhnliche Sensoren einzusetzen, die man an der Küste anbringen kann. Der Sensor ist fest verbaut und die fixe Montage ist also der konstante Wert gegen den man die Veränderungen des Meeresspiegels abgleicht. Was nutzen hingegen Satelliten als fixe Konstante? Einen sogenannten Terrestrial reference frame (TRF) der den dreidimensionalen Raum genau abbilden soll. Man errechnet den TRF mit Lasern von Satelliten, „Very Long Baseline Interferometry“ (VLBI), mit dem Global Positioning System (GPS), und Doppler Orbitography and Radiopositioning Integrated by Satellite (DORIS). Klingt kompliziert und ist es auch. Denn diese Technologien brauchen auch wieder eine Art Fixpunkt namens „Origin“ und bezieht sich auf den Massenmittelpunkt der Erde. Diesen kann man leider nur mit einer einzelnen Methode messen, nämlich „satellite laser ranging“ (SLR). Von dieser Laser-Technik hängt nicht nur die Messung des Meeresspiegels ab, sondern auch die Messung von Eismassen und Ozean-Dynamiken. Klingt toll, hat aber Haken: Die Technologie hat Probleme bei Tageslicht-Situationen und wird meistens bei Nachtverhältnissen verwendet.

https://ivscc.gsfc.nasa.gov/publications/gm2016/002_appleby_etal.pdf

Die Lasertechnik und VLBI liefern auch leider unterschiedliche Ergebnisse.

Dieser anhaltende Skalenunterschied ist faszinierend und weist auf systematische Probleme bei einer oder beiden Techniken sowie auf potenzielle Probleme bei der Standortbindung hin.

Man fürchtet sogenannte „versteckte Reichweiten-Fehler“. Will man mit einem TRF als Ausgangspukt Dinge im Millimeter-Bereich messen (wie etwa den Anstieg von Ozeanen pro Jahr), dann kann es Ungenauigkeiten geben.

https://www.researchgate.net/publication/253798061_Challenges_Towards_a_Uniform_Terrestrial_Reference_Frame

Genauer gesagt gibt es drei verschiedene Referenz-Rahmen: Den „ITRF2014“ von IGN, den „DTRF2014“ von DGFI-TUM und den „JTRF2014“ von JPL. Alle bedienen sich aus denselben Rohdaten, aber jene werden unterschiedlich zusammengefügt.

https://www.sciencedirect.com/science/article/pii/S167498471730188X

Für einige Zwecke reicht es, wenn die Messungen auf den Zentimeter genau sind, aber für die Messung des Meeresspiegels will man eine Genauigkeit besser als 1mm und weniger als 0,1 Millimeter Fehlerquote/Sonder-Abweichung bei langfristigen Messungen. Diese Genauigkeiten werden vorgegeben von dem „Global Geodetic Observing System“ der „International Association of Geodesy“ (IAG) und werden bisher nicht erreicht (Stand 2019).

Ohne den sogennanten „Celestial Reference Frame„-Wert (​CRF) kann man die Rechnung vergessen.

Da nur VLBI [Eine Technik namens „Very Long Baseline Interferometry“] die Ermittlung des CRF-Wertes ermöglicht, wird keine Technik-Kombination durchgeführt. Darüber hinaus wird auch keine Intra-Technik-Kombination durchgeführt, daher wurde der ICRF2 von nur einem VLBI-AC unter Verwendung eines einzelnen spezifischen Softwarepakets berechnet.

Ein „einzelnes Software-Paket“?

Darüber hinaus wurden ICRF und ICRF2 beide von einem einzelnen IVS-Analysezentrum unter Verwendung eines einzelnen Softwarepakets berechnet. Somit wird diese individuelle Lösung im Gegensatz zur TRF-Bestimmung nicht durch einen Kombinationsprozess kontrolliert und validiert, was ihre Robustheit verringert. Dies führt beispielsweise zu zu optimistischen Formfehlern.

Leider sei es „schwierig zum gegenwärtigen Zeitpunkt“, die notwendigen Verbesserungen umzusetzen, um die erwünschte Genauigkeit (besser als 1mm und weniger als 0,1mm Langzeitabweichung) in der Zukunft zu erreichen.

Laut dieser hyperkomplizierten Messmethode gab es einer Steigerung der Meerespegel um 3,2mm pro Jahr zwischen 1992 und 2013. Ab 1999 gab es aber Abweichungen zwischen den Messwerten und den Werten von altmodischen Küsten-Sensoren. Die NASA und Deutschland fanden an 2002 in der GRACE-Mission mit Satelliten und einer anderen Messmethode Steigerungsraten von 1,6mm pro Jahr, was zu den Sensoren passt. Steigt der Pegel also um 16 Zentimeter in 100 Jahren? Oder um 32 Zentimeter? Oder gar 82 Zentimeter, was einer der Werte ist die der IPCC benutzt? Wollen wir Billionen Dollars verwetten? Trauen wir den „einzelnen Software“-Paketen die verwendet werden?

AlexBenesch
AlexBenesch
Senden Sie uns finanzielle Unterstützung an: IBAN: DE47 7605 0101 0011 7082 52 SWIFT-BIC: SSKNDE77 Spenden mit Paypal an folgende Email-Adresse: [email protected]
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img

Related articles

Geheimdienste sollen verdeckte russische Finanzierung für Politiker in Europa aufgedeckt haben

Kommentar "Voice of Europe" schien wie eine typische, pro-russische Nachrichtenseite im Internet mit entsprechenden Beiträgen und Interviews mit europäischen...

Recentr LIVE (26.03.24) ab 19 Uhr: Dunkelfeld

Wir leben in einem Zeitalter, in dem die Menschen die falschesten Vorstellungen von den drei Supermächten besitzen. https://youtu.be/Q87IgKxwsQo

Islamischer vs. westlicher Globalismus

Propaganda aus der muslimischen Welt enthält viele Elemente, die auch westliche Sozialisten verwenden, und solche, die bei westlichen...

ISIS-K ist Russlands nächstes Problem

Kommentar Russland unter den Zaren träumte davon, das ottomanisch-islamische Kalifat zu zerstören und zu übernehmen. In der sowjetischen Phase...