this post was submitted on 15 Nov 2025
8 points (72.2% liked)

Nicht der Postillon

148 readers
2 users here now

Manchmal hat das echte Leben bereits genug an Satire zu bieten.

Regeln

  1. Verlinkte Beiträge dürfen nicht vom Postillon stammen.
  2. Der Originaltitel darf gerne gekürzt oder angepasst werden, um die Pointe hervorzuheben.

founded 7 months ago
MODERATORS
 

Nur zur Erinnerung: Es gibt noch keine Quantencomputer, die mehr als ein paar Bits verarbeiten können mit Millionenaufwand. Dagegen sind Klimamodelle wie auch Wettermodelle so mit die rechenaufwendigsten Anwendungen, die auf heutigen Supercomputern laufen.

Und das andere: Der Grund, warum man in der Klimaforschung mit grossen Rechenmodellen und Simulationen arbeitet, ist um die vielfältigen Prozesse und ihre Relevanz besser zu verstehen. Man kann Modelle gezielt verändern um zu sehen, ob sie besser zu den aus vielen tausend vergangenen Jahren aufwendig gewonnenen Daten passen. Mit dem besseren Verständnis der Prozesse kann man dann zukünftige Entwicklungen besser vorhersagen.

Genau das kann "Machine Learning", auch genannt automatische Mustererkennung aber eben nicht - die Rechenverfahren können die benutzten Muster nicht benennen, verstehen, oder identifizieren, die Modelle sind eine Black Box.

you are viewing a single comment's thread
view the rest of the comments
[–] gigachad@sh.itjust.works 5 points 2 weeks ago* (last edited 2 weeks ago) (3 children)

Ganz genau so ist es.

Klimamodelle wie bspw. CMIP haben ein ganzes Set an a priori zu bestimmenden Parametern, mit denen sie ins Rennen gehen. Das können Parameter sein, die etwas mit der Realität zu tun haben wie bspw. bestimmte Abflussparameter oder andere als konstant zu beschreibende Landoberflächenparameter, aber auch solche die nicht mehr viel mit dem eigentlichen Prozess zu tun haben - z.B. aufgrund der großflächigen Skala. So kann man bspw. die Rauhigkeit einer Fläche lokal recht einfach bestimmen oder sogar messen, dehnt man das auf 10 km² aus, gehen aber Einheit und Bezug verloren.

Manche Modelle arbeiten mit 10 Parametern, manche mit 1000. Diese Parameter muss man vor den Modelläufen kalibrieren, kann man sich vereinfacht wie ein Gleichungssystem mit 1000 Variablen vorstellen. Die Lösung dieses Systems ist z.B. eine Landoberflächentemperatur oder eine Abflussgröße, häufig aber eine Metrik, die mehrere Prozessvariablen kombiniert. Nun wird die Parametrisierung aber nicht auf eine Zeit und einen Ort kalibriert, sondern für ein repräsentatives (oder sogar das ganze) Gebiet und idR ein paar Jahre Zeit. D.h. das Modell kalibriert vll. von 1980-1985 und läuft ab da im Vorhersagebetrieb.

Die Parametrisierung ist ein klassisches Optimierungsproblem, denn ich kann keine Gleichung mit 1000 Unbekannten rechnen, ich muss approximieren. Und da kommen recht aufwendige Algorithmen ins Spiel, ein klassischer ist bspw. Shuffled Complex Evolution (SCE). Seit einigen Jahren verwendet man aber auch vermehrt Maschine Learning, weil das perfekt für die Optimierung geeignet ist. In den Parametrisierungen steckt schon so viel Black Box drin, da hat die klassische Sensitivity Analysis schon mit zu kämpfen.

Von Quantum Processing habe ich zugegebenermaßen keine Ahnung. Aber wie es mit neuen Technologien so ist, testet man die am besten aus, bevor sie da sind. Wieso sollte das DLR nicht Ressourcen da rein stecken, Quantum computing für die Parametrisierung von Klimamodellen zu erproben, wenn auch vielleicht erstmal auf kleinerer Skala?

Also wenn man sich über generative KI shareholder Quatsch beschwert, verstehe ich das sehr gut, das hier verstehe ich nicht. Tut mir Leid OP, aber ich glaube da hast du dich in ein Feld begeben, von dem du keine Ahnung hast.

[–] megrania@discuss.tchncs.de 2 points 2 weeks ago* (last edited 2 weeks ago)

Danke für den Überblick :)

Also wenn man sich über generative KI shareholder Quatsch beschwert, verstehe ich das sehr gut, das hier verstehe ich nicht.

Ja, wird leider alles in einen Topf geworfen im Moment ...

[–] renormalizer@feddit.org 1 points 2 weeks ago

Man braucht Parametrisierungen auch, um Prozesse auf feinerer Skala als die Modellauflösung zu berechnen. Die haben einen großen Einfluss auf die Simulationen. Da geht es dann um Fragen wie "Wie viel Prozent meiner Gitterbox sind bewölkt, wenn im Mittel 80% Luftfeuchte und 10C herrschen, und die Luft mäßig turbulent ist?" Da kann man viel mit ML aus Beobachtungen lernen.

Bei Quantenalgorithmen muss es auch nicht um universelle (Gate-) Quantencomputer gehen. Da gibt es z.B. quantum annealing, das sich prinzipiell gut für globale Optimierung eignet. Und da gibt es schon Maschinen mit tausenden qubits.

Ob sie da aber jemanden finden, der das für TVöD E12 macht, halte ich für fraglich.

[–] HaraldvonBlauzahn@feddit.org -1 points 2 weeks ago* (last edited 2 weeks ago) (2 children)

Klingt ebenso plausibel wie Fliegen mit e-Fuel. Wo wir wissen, dass e-Fuel schon für Autos zu teuer ist.

[–] megrania@discuss.tchncs.de 3 points 2 weeks ago

Naja geht halt um Prototypen und theoretische Vergleiche, klingt jetzt nicht so als ob die da Millionen verbrennen ... gibt bisher drei Publikationen: https://klim-qml.de/

Hab die zwar nur überflogen, aber eigentlich ein recht spannendes Projekt wie es scheint ...

[–] trollercoaster@sh.itjust.works 1 points 2 weeks ago (1 children)

Der Preis ist bei der Überlegung drittrangig, es geht um die Energiedichte, die ist nämlich bei flüssigen Kohlenwasserstoffen um ein Vielfaches höher, als bei Allem, was bisher sonst so als "alternative" Energieträger für Flugantriebe propagiert wurde.

[–] HaraldvonBlauzahn@feddit.org 0 points 2 weeks ago* (last edited 2 weeks ago) (1 children)

Ist das wegen der Energiedichte, dass sie auch schwere Wasserstofftanks ausprobieren, wie im Link beschrieben?

Und: Wer möchte ernsthaft zehn mal so viel für einen kommerziellen Flug bezahlen, der hunderte Kilo Treibstoff pro Passagier kostet? So viel Geld hat doch kein Normalbürger!

Letztlich, denke ich, ist das wie bei den Fusionskraftwerken - da wird an irgendeiner Wundertechnik geforscht, weil die Alternstive halt ist, Konsequenzen zu ziehen und Entscheidungen zu fällen. Was bei der Stromerzeugung eben die Nutzung von Ernererbaren Energien und Stromspeichern ist. Und bei der kommerziellen Luftfahrt eben, drastisch weniger zu fliegen.

Edit: Christian Stöcker im Spiegel zu diesem Themenkomplex der Nebelkerzen-Technologie..

[–] trollercoaster@sh.itjust.works 1 points 2 weeks ago

Wasserstoff ist tatsächlich eine der "Alternativen", die von der Energiedichte her problematisch sind. Mit flüssigen Kohlenwasserstoffen braucht man nämlich überhaupt keine Tanks in diesem Sinne, es reicht, Hohlräume, die im Flugzeug eh schon vorhanden sind, mit ölbeständigem Lack zu versiegeln.

Nochmal, das ist kein Kostenproblem, das ist ein Nutzlast- und Reichweitenproblem.