Verbesserung von Modellen durch Machine Learning
Auch ein verstärkt datengetriebenes Vorgehen erscheint zeitgemäß – so untersuchen etwa Richman und Wüthrich (2018) eine Erweiterung des Lee-Carter-Modells mittels neuronaler Netze und erhalten äußerst konkurrenzfähige Ergebnisse. Eine derartige Kombination stochastischer Modelle mit Machine-Learning-Techniken im Sinne einer Grey-Box-Modellierung kann geeignet sein, die bisherigen Standards zu verbessern.
Methodisch kommen neben vorwärtsgerichteten und rekurrenten neuronalen Netzen unter anderem baumbasierte Verfahren wie Random Forests oder Gradient Boosting in Frage. Konkret arbeiten wir derzeit an einer Verbesserung von Mehrpopulationenmodellen durch Clusteranalyse, ein Verfahren aus dem Bereich des Unsupervised Learning (unüberwachten Lernens).
Absicherung gegen Langlebigkeitsrisiko
Zur Absicherung (Hedging) gegen Langlebigkeitsrisiko ist prinzipiell ähnlich wie beim Zinsrisiko eine breite Palette an Finanzprodukten denkbar. Diese Produkte können an die Mortalitätsentwicklung des konkreten Versichertenbestandes geknüpft sein, was jedoch aufgrund der schwierigen Bewertbarkeit zu Illiquidität der Produkte führt. Alternativ können sie auf einem Index basieren, der von einer bestimmten, größeren Referenzpopulation abhängt.
Problematisch aus Sicht des Rententrägers ist dabei das auch bei vergleichbaren Produkten wie zum Beispiel Wetterderivaten oder Katastrophenanleihen auftretende Basisrisiko: Weicht die zukünftige Mortalität des eigenen Vertragsportfolios von der Referenzpopulation ab, kann dies den Umfang der Absicherung reduzieren. Zuverlässige Sterblichkeitsmodelle ermöglichen eine belastbarere Quantifizierung dieses verbleibenden Risikos und erlauben einen angemessenen Umgang damit.