Wenn das Unmögliche geschieht: Warum der Zusammenbruch von LTCM kein „10-Sigma-Ereignis“, sondern ein Denkfehler war

© 2025 Andreas Heinz - (Bild wurde mit KI generiert)

 

Im Jahr 1998 kam es zum spektakulären Zusammenbruch von Long Term Capital Management (LTCM), einem Hedgefonds, der als Paradebeispiel für akademisch getriebene Finanzinnovation galt. LTCM wurde von ehemaligen Salomon-Brothers-Händlern und zwei Nobelpreisträgern in Wirtschaftswissenschaften geführt. Die Strategie beruhte auf komplexen Arbitrage-Geschäften, abgesichert durch mathematische Modelle, die auf der Annahme basierten, dass Marktbewegungen symmetrisch verteilt und extrem unwahrscheinlich sind, wie es eine Normalverteilung impliziert.

Nach dem Zusammenbruch wurde in öffentlichen Stellungnahmen behauptet, das Ereignis sei so außergewöhnlich gewesen, dass es einem „10-Sigma-Ereignis“ entsprach, also einem Kurseinbruch, der unter einer Normalverteilung eine Wahrscheinlichkeit von weniger als 1 zu 10^23 aufweist. Solche Ereignisse gelten als praktisch unmöglich. Sie dürften unter den gegebenen Modellannahmen im gesamten beobachtbaren Universum kein einziges Mal auftreten.

Diese Argumentation lenkt jedoch von einer fundamentalen Fehlannahme ab. Nicht das Ereignis war absurd, sondern das zugrunde liegende Modell. Nassim Nicholas Taleb illustriert diese Problematik mit dem Konzept von Wittgensteins Lineal: Wenn man ein Lineal verwendet, um einen Tisch zu messen, dessen Maße man nicht kennt, woher weiß man, ob das Problem beim Tisch liegt oder beim Lineal? In der Finanzwelt bedeutet das: Wenn ein Modell extreme Ereignisse systematisch ausschließt und diese dennoch eintreten, ist nicht das Ereignis zu hinterfragen, sondern die Gültigkeit des Modells.

 

Bayesianische Analyse: Ein rationaler Zugang zur Modellkritik

Taleb zeigt anhand des Satzes von Bayes, wie man die Wahrscheinlichkeit dafür berechnen kann, dass ein Modell (in diesem Fall eine Normalverteilung) zutrifft, wenn ein angebliches „10-Sigma-Ereignis“ beobachtet wird.

Die Formel lautet:

P(Gauß | Ereignis) = [P(Gauß) * P(Ereignis | Gauß)] /
                     [(1 - P(Gauß)) * P(Ereignis | nicht Gauß) + P(Gauß) * P(Ereignis | Gauß)]

Selbst wenn man eine sehr hohe a-priori-Wahrscheinlichkeit für die Gültigkeit der Normalverteilung annimmt, etwa 99,99999 %, ergibt sich nach Bayes' Regel eine verschwindend geringe Wahrscheinlichkeit, dass das Modell nach einem 10-Sigma-Ereignis noch haltbar ist.

Beispiel: P(Gauß | 10-Sigma) ≈ 2 × 10^-15

 

Die dicken Schwänze der Realität

Solche Fat-Tail-Verteilungen, beispielsweise Pareto- oder Power-Law-Verteilungen, kommen der Realität an den Finanzmärkten weitaus näher. Sie beschreiben Systeme, in denen extreme Ausschläge deutlich wahrscheinlicher sind als unter einer Normalverteilung. Ein Ereignis mit zehn Standardabweichungen ist in einem Power-Law-Modell kein unvorstellbares Phänomen, sondern ein erwartbarer Bestandteil des Risikosystems.

Die wissenschaftliche Kritik an der Verwendung der Normalverteilung in der Finanzökonomie ist nicht neu. Benoît Mandelbrot, der Begründer der Fraktal-Geometrie, war bereits in den 1960er-Jahren ein scharfer Kritiker des „Glockenkurven-Dogmas“. Er bezeichnete es als mathematische Bequemlichkeit, die der empirischen Realität nicht standhält. Stattdessen plädierte er für die Anwendung selbstähnlicher Prozesse mit intermittierender Volatilität, ein Ansatz, der später in der Volatilitätsmodellierung teilweise Eingang fand, das Grundproblem der dünnen Schwänze jedoch nicht löste.

 

Konsequenzen für das Risikomanagement

Der Fall LTCM zeigt exemplarisch, wie gefährlich es ist, sich auf Modelle zu verlassen, die strukturelle Risiken systematisch ausblenden. Eine Strategie, die davon ausgeht, dass Ereignisse jenseits von fünf Standardabweichungen praktisch nicht vorkommen, ist nicht robust, sondern anfällig für den Totalverlust. Wissenschaftlich betrachtet ist es nicht nur legitim, sondern notwendig, das verwendete Modell infrage zu stellen, wenn es durch beobachtbare Ereignisse widerlegt wird. Die Anwendung bayesianischer Logik in Verbindung mit realistischeren Verteilungen stellt dabei einen zentralen Schritt zur Verbesserung der Risikoeinschätzung dar. Statistik kann wertvolle Einsichten liefern, aber sie beschreibt keine Wahrheit - und wenn sie zur Beruhigung eingesetzt wird, obwohl sie strukturelle Risiken unterschlägt, wird sie zum gefährlichen Trugschluss.

 

Empfohlene Literatur

  • Nassim N. Taleb: The Black Swan, Fooled by Randomness
  • Benoît Mandelbrot: The Misbehavior of Markets
  • Didier Sornette: Why Stock Markets Crash
  • Aaron Brown: Red-Blooded Risk

Adresse

KFVI - Finanzoptimierung
Heinz & Kollegen
Darmstädter Str. 63
64572 Büttelborn

service@kfvi.de
Mo.-Fr.: nur nach Vereinbarung