Hans von Storch: Zur Sache Klima. Aufnahme: ©J.Xu Aufnahme: ©J.Xu

Die Absicht dieser Kolumne geht dahin, ruhiger, als es in der Publizistik gemeinhin geschieht, die Hintergründe von Aufregerthemen in Sachen Klimawandel und Klimaschutz zu erläutern, manchmal auch einfach Grundlagen zu erklären. – Hans von Storch, geb. 1949, ist Professor am Meteorologischen Institut der Fakultät für Mathematik, Informatik und Naturwissenschaften (MIN), Zweitmitglied an der Fakultät für Wirtschafts- und Sozialwissenschaften (WiSo) der Universität Hamburg sowie Direktor emeritus des Instituts für Küstenforschung am Helmholtz Forschungszentrum Geesthacht. Er ist Spezialist für Fragen der Klimamodellierung und hat in verschiedenen Arbeitsgruppen des IPCC mitgearbeitet. Zusammen mit Werner Krauß schrieb er das Buch Die Klimafalle: die gefährliche Nähe von Politik und Klimaforschung (2013).

 

von Hans von Storch

Von Klimamodellen ist häufig die Rede; der Begriff wird in den Medien nicht erklärt; es wird angenommen, dass dies ein allgemein verstandener Begriff ist. Ob dies der Fall ist, sei dahingestellt. In Teil I habe ich versucht, den Begriff zu erklären und die mit dem Einsatz von Modellen möglichen verfolgten Zwecke darzustellen.

Im Folgenden gehe ich auf eine spezielle Klasse von Modellen ein – nämlich die ›quasirealistischen‹ und ›maximal komplexen‹ Modelle, die als Programmcodes auf Superrechnern (1) laufen. ›Quasirealistisch‹ heißt, dass diese Systeme Wetterabläufe im raumzeitlichen Detail realistisch – oder eben: ziemlich realistisch – beschreiben; ›maximal komplex‹ heißt, dass diese Modelle das aktuelle Potential der Superrechner ausnutzen, d.h. der Umfang der Details und der Komplexität wird nur durch die Rechnerleistung begrenzt. Diese Programmcodes basieren zum großen Teil, aber nicht zu 100 Prozent, auf den bekannten physikalischen Naturgesetzen.

Solche Modelle sind zu unterscheiden von statistischen Modellen, die nach dem Prinzip ›ad hoc Ansatz‹ (von der Art einer Regression; oftmals linear) und Ableitung optimaler Parameter aus geeigneten Daten gebaut sind, und die im Prinzip nicht, oder nur ganz grob, auf physikalischen Prinzipien basieren. Auch minimal komplexe Modelle, die auf wesentlichen physikalischen Zutaten für eine Fragestellung beschränkt sind, sind von anderer Art.

Quasirealistische Modelle sind riesige Programmcodes (ihre Größe ist etwa das zehnfache vom Betriebssystem Windows) die Zustände in Gitterboxen simulieren – dazu wird der Raum, den die Klimakomponenten einnehmen – also die die Atmosphäre, der Ozean, das Meereis, der Boden und weitere (2) – in Kisten (Boxen) aufgeteilt mit vorgegebenen Kantenlängen. Diese Kantenlängen haben sich im Laufe der Zeit, im Laufe der Verbesserung der Rechenleistung, ständig verkleinert. Horizontal waren es in früheren Jahren ca. 500 km, jetzt sind es deutlich weniger, auch schon mal nur 50 und weniger km.

Ein weiterer wesentlicher Schritt ist die Bestimmung der Zustandsgrößen, die die Wettervariabilität des Klimasystems und dessen Änderungen in den Boxen gut beschreiben. Diese Wettervariabilitäten, die in einer Simulation berechnet werden, werden dann wie Beobachtungsdaten dazu genutzt, um geeignete Statistiken der Größen abzuleiten – und diese Statistiken nennt man Klimagrößen. Hier wählt man in allen Komponenten die Temperatur und die Masse, in Atmosphäre und Ozean die Flussgeschwindigkeiten, in Atmosphäre und Boden die Feuchte, im Ozean den Salzgehalt, in der Atmosphäre oft auch das Wolkenwasser usw. All diesen Eigenschaften ist gemein, dass für sie Erhaltungssätze gelten. Die Masse bleibt gleich, es sei denn es wird von außen Masse hinzugefügt oder entfernt. Der Impuls ist konstant, es sei denn es wird Impuls von außen hinzugefügt oder entfernt. Die Energie ist konstant, kann aber zwischen verschiedenen Erscheinungsformen wandern.

Und damit sind wir bei den Gleichungen, die in Computercodes übertragen werden: Für jede Box werden diese Erhaltungssätze formuliert. In einer Box nimmt der Wind ab, weil es Bodenreibung gibt, weil Impuls in die Nachbarboxen transportiert wird. Ebenso mit der thermischen Energie, die entweder ausgetauscht wird mit den Nachbarboxen, in den Boden, Meereis oder den Ozean transportiert wird; Energie wird hinzugefügt durch Strahlung, etwa kurzwellige von der Sonne oder langweilige vom Untergrund oder aus anderen Boxen; durch Verdunstung und Kondensation (Niederschlag).

Im Prinzip entsteht für jede Box i und jede Eigenschaft A eine Gleichung von der Art:

Inhalt in Box i von Eigenschaft A, beim nächsten Zeitpunkt = Inhalt in Box i der Eigenschaft A zum gegenwärtigen Zeitpunkt + Zustrom/Verlust an A aus/an Nachbarboxen (einschl. Grenze zu anderen Komponenten) plus interne Erzeugung durch Umwandlung (im Falle von Temperatur, aus Strahlung, Kondensation …)

Oder etwas mathematischer: dA/dt = - Divergenz (A) + Umwandlungsprozesse.

Bei den Umwandlungsprozessen, einschließlich der Bodenreibung, besteht das Problem, dass diese Prozesse auf teilweise sehr kleinen Skalen stattfinden und nicht beschriebene Zustandsgrößen beteiligt sind, die von den Boxen nicht aufgelöst werden. Dann nutzt man den Trick der ›Parametrisierungen‹ – man nutzt eine physikalisch motivierte aber statistisch abgeleitete ›Schließung‹. Man fragt, wie bei einer Konfiguration, wie sie von räumlicher Aufteilung und berücksichtigten Zustandsgrößen gegeben ist, der Prozess auf die berücksichtigen Zustandsgrößen in der Gitterbox wirkt. Dann braucht man die beteiligten Prozesse nicht explizit darzustellen, sondern man schätzt ihr konditionale Wirkung (konditioniert auf die dargestellten Zustandsgrößen gemittelt über die Boxen). Technisch kann dies beliebig kompliziert werden.

Ein Bereich, der parametrisiert ist, ist die kleinskalige Turbulenz, die für Vermischung und Reibung verantwortlich ist. Die Beschreibung der Bodeneigenschaften ist weitgehend parametrisiert.

Die Parametrisierungen heißen in Slang der Klimaforscher gerne ›Physik‹ der Modelle, aber genau das sind sie nicht – es sind empirische Approximationen, die sich in der Praxis bewähren. Sie enthalten geeignet angepasste Parameter – nicht viele, aber doch ein paar. Die verschiedenen Klimamodelle entscheiden sich auch durch die Gitteraufteilung und – selten – die Wahl der Zustandsgrößen; die Hauptunterschiede liegen im Bereich der Parametrisierung. Dies erklärt zum großen Teil, warum Klimaszenarien, die mit unterschiedlichen Klimamodellen erzielt worden sind, durchaus voneinander abweichen können.

Das Gerüst der Modelle sind ganz überwiegend strikte Erhaltungssätze. Diese Modelle erzeugen Abfolgen von Wetter, die statistisch konsistent sind in den berücksichtigten Klimakomponenten (Atmosphäre, Ozean …). Diese Abfolgen können durch externe Faktoren konditioniert, z.B. Vulkanausbrüche, erhöhter CO2-Ausstoss, usw. Aber die Modelle selbst werden nicht mit Beobachtungen ›gefüttert‹, damit sie eine bestimmte, vorgegebene, Wetterabfolge reproduzieren.

Erläuterungen

(1) Der Begriff ›Superrechner‹ verweist auf die zur jeweiligen Zeit leistungsstärksten Rechner, was Rechnen und Archivieren angeht. Da Rechenzentren erfahrungsgemäß (siehe etwa Moore’s Law) mit jeder neuen Generation von Maschinen höhere Leistungen erbringen, ist ein Rechner, der 2010 ein Superrechner war, dies in 2020 nicht mehr. So stieg die Rechenleistung am Deutschen Klimarechenzentrum (DKRZ) von 10-3 Teraflops in 1988 auf jetzt 103 Teraflops an, also um einen Faktor von 106.

(2) Das Klimasystem ist offen, d.h. es ist zu entscheiden, welche Komponenten man als Teil des Systems darstellt, und welche man als ›extern‹ behandelt. Bei möglicherweise geringerer Rechenleistung wird man weniger Komponenten darstellen; bei höherer Rechenleistung mehr. Frühere Modelle beschrieben nur die (Hydro- und Thermodynamik der) Atmosphäre, sowie stellten den Ozean thermodynamisch als einen ›Sumpf‹ ohne Hydrodynamik dar; heute wird auch die Dynamik des Ozeans berücksichtigt. Früher waren die Konzentrationen von Treibhausgasen vorgegeben; heute werden sie in Modellen des Kohlenstoffkreislaufs berechnet.

(Immer noch aktuell: von Storch, H., S. Güss und M. Heimann: Das Klimasystem und seine Modellierung. Eine Einführung, Berlin (Springer Verlag) 1999, 255 Seiten)