Zitierfähige Version
historische Volatilität
Geprüftes Wissen
GEPRÜFTES WISSEN
Über 100 Experten aus Wissenschaft und Praxis.
Mehr als 8.000 Stichwörter kostenlos Online.
Das Original: Gabler Banklexikon
zuletzt besuchte Definitionen...
1. Begriff und Berechnung: Die historische Volatilität gibt Auskunft über die Beweglichkeit/Schwankungsintensität von Beobachtungswerten für eine Zufallsgröße im Zeitablauf. Im Finanzmarktkontext wird sie insbesondere zur Analyse von Kursen (Kursvolatilität) oder Renditen (Renditevolatilität) eines Finanzinstrumentes in der Vergangenheit herangezogen und hierfür durch die annualisierte (Annualisierung) Standardabweichung der Kurse bzw. (stetigen) Renditen gemessen; in letzterer Version ergibt sich eine grundlegende Schätzung s (p.a.) für die historische Volatilität aus folgender Schätzfunktion:
wobei:
= arithmetisches Mittel (bei börsentäglichen Beobachtungen bisweilen auf Null gesetzt)
xi = Beobachtungswerte: ln (Schlusskursi/Schlusskursi-1)
n = Anzahl der Werte (Kursveränderungen)
Vgl. zur Grundstruktur der Formel Standardabweichung und zum Faktor √250 Annualisierung. Große Kursschwankungen fließen also überproportional stark in die Berechnung der Volatilität ein. Es bestehen nicht triviale statistische Probleme; so geht z.B. die Erwartungstreue der Schätzung durch die nichtlineare Transformation innerhalb der üblichen Options-Bewertungsgleichungen verloren ("Transformation Bias").
2. Anwendung und deren Grundproblem: Das Hauptanliegen der Ermittlung einer historischen Volatilität besteht regelmäßig darin, sich eine Vorstellung von der zukünftigen Volatilität zu verschaffen, die u.a. eine zentrale Inputgröße für die moderne Optionsbewertung, Portfolio-Theorie und Asset Allocation darstellt. Bei der Schätzung der zukünftigen Volatilität aus einer historischen Zeitreihe steht damit die Hoffnung auf eine zumindest annähernde Fortsetzung der vergangenen Entwicklung im Hintergrund; gleichzeitig soll der Schwankung der Volatilitäten im Zeitablauf – gewissermaßen zwischen ruhigen und weniger ruhigen Marktphasen – Rechnung getragen werden. Damit ist das wesentliche Problem der historischen Volatilitätsschätzung darin zu sehen, dass zur Generierung eines hinreichenden Stichprobenumfangs so weit in die Vergangenheit zurückgeblickt werden muss, dass die Schätzwerte oft schon überholt sein werden. Zudem wird unter dem Eindruck dieses Problems zur Schätzung regelmäßig auf kurzfristige, börsentägliche Standardabweichungen zurückgegriffen, die allerdings angesichts der häufig beobachtbaren Autokorrelationen keineswegs schematisch zu (Jahres-)Volatilitäten hochgerechnet werden dürfen (Annualisierung).
3. Weiterentwicklungen: U.a. zur Behebung dieses Grundproblems ist die Methodik zur Schätzung der historischen Volatilität in der Vergangenheit in verschiedener Hinsicht weiterentwickelt worden. Vorgeschlagen wurden bspw.
• ein Rückgriff auf Tageshöchst- und Tagestiefstkurse;
• die Hinzuziehung der Eröffnungskurse zwecks Erfassung außerbörslicher Kursbewegungen;
• die Berücksichtigung eines Drifts (Trends) in der Stichprobe, da ansonsten bspw. bei einer kontinuierlichen Aufwärtsentwicklung eine inhaltlich unangemessen hohe Volatilität ausgewiesen würde;
• der Einsatz von Bootstrapping-Techniken;
• die stärkere Gewichtung jüngerer Daten;
• die Anpassung des historischen Zeitraums an die Restlaufzeit einer zu beurteilenden Option;
• die Berücksichtung des erwarteten Anteils erfahrungsgemäß hochvolatiler "Economic Days" (z.B. mit kursrelevanten Veröffentlichungen) innerhalb der Restlaufzeit;
• schlichte "Per-Hand-Korrekturen" wie die Hinzuziehung von Branchenvolatilitäten.
Eine problembewusste Anwendung solcher Verfahren lässt bereits Verbesserungen der Prognosequalität erwarten. Herausragende Bedeutung kommt allerdings den sog. GARCH (generalized autoregressive conditional heteroskedasticity)-Modellen der Volatilitätsschätzung zu, die in der Lage sind, sowohl die zeitliche Ballung in Phasen hoher oder niedriger (tatsächlicher) Volatilität, das sog. Volatility Clustering (als positive Autokorrelation), als auch die Mean Reversion der (tatsächlichen) Volatilität (als negative Autokorrelation) durch die Abbildung der Volatilitätsentwicklung in einem stochastischen (Zufalls-)Prozess zu erfassen. Durch das Volatility Clustering wiederum lassen sich sowohl die sog. "fat tails", im Vergleich zur Normalverteilung überdurchschnittlich viele "Renditeausreißer" nach oben und unten, als auch die korrespondierende "peakedness around the mean" in einem "unbeweglichen Markt" (vgl. Portfolio-Theorie, Modellbeurteilung, Ziff. 1.b)) modellieren. In den weiterentwickelten (exponentiellen) EGARCH-Modellen und vergleichbaren Modellvarianten wird darüber hinaus auch der Asymmetrie Rechnung getragen, dass negative Überraschungen ("Volatilitätsschocks") erfahrungsgemäß die weitere Volatilitätsentwicklung nachhaltiger beeinflussen als positive; dies äußert sich in einer Linksschiefe der implizierten Renditeverteilung. Auch in diesem Rahmen nimmt die Evidenz von sog. Volatility Spillovers zu: In einigen Fällen scheint die Volatilität in einem Markt stärker mit messbaren historischen Entwicklungen auf anderen Märkten in Zusammenhang zu stehen als mit denen auf dem Markt selbst.
4. Das konkurrierende Konzept der impliziten Volatilität: Zahlreiche absehbare Änderungen der tatsächlichen Volatilität, z.B. im Anschluss an antizipierbare kursrelevante Ereignisse (Anstieg der impliziten Volatilität bei niedriger historischer Volatilität), oder deren antizipierbares Ausbleiben, insbesondere wenn das eine Ereignis vorbei ist (Rückgang der impliziten Volatilität bei hoher historischer Volatilität), können in einer historischen Zeitreihe gar nicht zum Ausdruck kommen. U.a. dieser Gedanke hat zur Popularität der impliziten Volatilität als Instrument der Volatilitätsprognose beigetragen.
GEPRÜFTES WISSEN
Über 100 Experten aus Wissenschaft und Praxis.
Mehr als 8.000 Stichwörter kostenlos Online.
Das Original: Gabler Banklexikon