Wetter- und Klimagefahren gehören nach wie vor zu den größten Unsicherheitsfaktoren für Versicherer und Rückversicherer und beeinflussen die Schadenentwicklung in den Sparten Sach‑, Agrar‑, Transport‑, Energie- sowie den entsprechenden Betriebsunterbrechungsversicherungen. Tropische Wirbelstürme, Überschwemmungen, Hagel, Dürren und Waldbrände verursachen sowohl häufige schleichende Schäden als auch seltene, schwere Extremereignisse, die das Kapital belasten, Katastrophenmodelle auf die Probe stellen und die Angemessenheit von Rückversicherungsdeckungen auf den Prüfstand stellen. In diesem Umfeld sind die Genauigkeit, Aktualität und probabilistische Qualität von Prognosen nicht nur wissenschaftliche Belange, sondern operative Inputs für die Auswahl von Versicherungsverträgen, das Schadenspitzen-Management, die Strukturierung von Rückversicherungen und die aufsichtsrechtlichen Kapitalanforderungen.
Von physikalisch basierter numerischer Wettervorhersage zu generativer KI
Die Branche stützt sich seit langem auf numerische Wettervorhersagen (NPW), die die maßgeblichen Gleichungen der Atmosphärenbewegung und Thermodynamik in Rechenrastern integrieren. Die Güte der Vorhersagen hat sich deutlich verbessert, doch praktische Einschränkungen bestehen weiterhin. Hochauflösende deterministische Läufe und große Ensembles sind teuer und langsam, und die Latenzzeit von der Initialisierung bis zur Produktlieferung kann die Geschwindigkeit einschränken, mit der Risiken, Personal und Absicherungen an sich schnell verändernde Ereignisse angepasst werden können. Der Mehrwert von Ensembles – die Quantifizierung von Verteilungen und Ausreißern anstelle einer einzelnen Trajektorie – kollidiert oft mit Rechenbudgets und operativen Fristen.
Generative KI bezieht sich hier auf Modelle, die auf großen Archiven von Wetterdaten – insbesondere Reanalysen und in einigen Fällen auch operativen Analysen1 – trainiert wurden und lernen, wie sich atmosphärische Variablen gemeinsam entwickeln. Zur Laufzeit leiten sie aus diesen gelernten Beziehungen zukünftige Zustände ab, anstatt den gesamten Satz physikalischer Gleichungen numerisch zu lösen. Dies ermöglicht präzise Vorhersagen innerhalb von Minuten bei deutlich geringeren Rechenkosten und in einer für den praktischen Einsatz geeigneten Auflösung. Reanalyse-Datensätze – wie ERA5, zusammengestellt vom Copernicus Climate Change Service (C3S) am Europäischen Zentrum für mittelfristige Wettervorhersagen (ECMWF) – liefern jahrzehntelange, global konsistente Felder, die die Modelle in ihrer Variabilität über verschiedene Skalen hinweg, einschließlich Extremereignissen, verankern.2
Stand der Technik
Zu den einflussreichsten Systemen gehört GraphCast von Google DeepMind.3 Es stellt die Atmosphäre auf einem sphärischen Graphen dar, überträgt Informationen zwischen Knoten, um multiskalige Wechselwirkungen zu erfassen, und läuft autoregressiv in Sechs-Stunden-Schritten, um Prognosen für bis zu zehn Tage zu erstellen. Eine von Fachkollegen begutachtete Studie in Science berichtete, dass GraphCast das hochauflösende deterministische Modell (HRES) des ECMWF bei etwa 90 Prozent von 1.380 Verifizierungszielen übertraf und dabei Prognosen mit sehr geringer Latenz lieferte.4 Für Versicherer ermöglicht dies schnelle, hochqualifizierte deterministische Leitlinien zu Wind, Niederschlag und Temperatur – Parameter, die direkt in die Schätzung von Sturmschäden, die Triage von Hochwasserschäden und die operative Echtzeitüberwachung während aktiver Ereignisse einfließen.
Die probabilistische Modellierung hat sich ebenso schnell weiterentwickelt. GenCast5 von DeepMind erweitert dieses Paradigma auf Ensembles unter Verwendung diffusionsbasierter generativer Modellierung. In den 2025 in Nature veröffentlichten Ergebnissen erstellte GenCast globale 15‑Tage-Ensembles mit einer Auflösung von 0,25° und 12‑Stunden-Zeitschritten in etwa acht Minuten und übertraf damit die Leistungsfähigkeit des ENS – des operativen Ensemble-Systems des ECMWF – bei den meisten bewerteten Zielen.6 Da Schadenquoten und Kapitalkosten häufig eher durch Extremwerte als durch Mittelwerte bestimmt werden, verbessern häufige, kostengünstige Ensemble-Aktualisierungen die Quantifizierung von Extremwerten erheblich und erleichtern die Neukalibrierung parametrischer Trigger, die Überarbeitung von Ereignisreaktions-Footprints und eine präzisere Rückstellung im Verlauf einer Katastrophe.
Ein breiteres Ökosystem treibt die Entwicklung in diesem Bereich voran. Das 2023 in Nature veröffentlichte Pangu-Weather von Huawei demonstrierte eine wettbewerbsfähige mittelfristige Leistungsfähigkeit bei deutlich geringeren Rechenkosten,7 was dort von Bedeutung ist, wo der Zugang zu Hochleistungsrechnern eingeschränkt ist. Die FourCastNet-Familie von NVIDIA kombiniert zusammen mit der Earth‑2-Plattform Fourier-Operatoren8 und Transformer-Architekturen mit GPU (Graphics Processing Unit) - Beschleunigung, um schnelle globale Vorhersagen zu liefern und sehr große Ensembles zu unterstützen.9 Generative KI hält auch durch hybride Systeme wie NeuralGCM Einzug in die Klimamodellierung.10 Diese Modelle behalten einen physikalischen Kern bei und verwenden maschinelles Lernen, um Prozesse darzustellen, die sich nur schwer direkt lösen lassen. Sie sind so konzipiert, dass sie von täglichen Wettervorhersagen bis hin zu Simulationen über mehrere Jahrzehnte hinweg stabil bleiben und auf ein einziges Rahmenwerk abstellen, das kurzfristige Gefahrenprognosen mit langfristigen Klimarisikoprognosen verknüpft.
Microsofts Aurora ergänzt diesen Ansatz um ein Fundament-Modell: eine 3D‑Architektur mit rund 1,3 Milliarden Parametern, die auf mehr als einer Million Stunden heterogener Erddatensätze vortrainiert und anschließend für Aufgaben wie hochauflösende Wettervorhersagen, Luftqualität, Meereswellen und tropische Wirbelstürme durch Fine-Tuning optimiert wurde. Peer-Review- und technische Materialien berichten, dass Aurora die operativen Basiswerte für diese Aufgaben bei um ein Vielfaches geringeren Rechenkosten erreicht oder übertrifft und mit moderner GPU-Beschleunigung hochauflösende Zehn-Tage-Prognosen in weniger als einer Minute erstellt.11
Operative Validierung
Die vielleicht bedeutendste Bestätigung kam vom ECMWF. Am 25. Februar 2025 nahm das Zentrum sein Artificial Intelligence Forecasting System (AIFS) für deterministische Vorhersagen in Betrieb, das parallel zum traditionellen physikalisch basierten Integrated Forecasting System (IFS) läuft.12 Am 1. Juli 2025 nahm das ECMWF die Ensemble-Version des AIFS in Betrieb und liefert Produkte über seine Standard-Verbreitungs- und Open-Data-Kanäle.13 Erste Überprüfungen ergaben eine Gleichwertigkeit oder Überlegenheit gegenüber herkömmlichen Modellen bei wichtigen Kennzahlen, darunter gemeldete Verbesserungen von bis zu etwa 20 Prozent bei der Vorhersage der Zugbahnen tropischer Wirbelstürme.14 Für Versicherer mit Risiken an Küsten bedeutet die verbesserte Vorhersage der Zugbahnen eine zuverlässigere Vorbereitung auf Sturmfluten, genauere Angaben zum Ausmaß der Ereignisse und genauere vorläufige Schadensschätzungen. KI‑Prognosen fließen nun in die operativen und offenen Datenströme des ECMWF ein – dieselben Kanäle, die auch von Modellierungs- und Analyse-Workflows von Drittanbietern weit verbreitet genutzt werden.15