Wednesday 22 November 2017

Exponentiell Gewichtete Gleitende Durchschnitt Risiko Metriken


Erforschung der exponentiell gewichteten beweglichen durchschnittlichen Volatilität ist die häufigste Maßnahme des Risikos, aber es kommt in mehreren Geschmacksrichtungen. In einem früheren Artikel haben wir gezeigt, wie man einfache historische Volatilität berechnet. (Um diesen Artikel zu lesen, siehe Volatilität verwenden, um zukünftiges Risiko zu beurteilen.) Wir haben Googles aktuelle Aktienkursdaten verwendet, um die tägliche Volatilität auf der Grundlage von 30 Tagen Lagerbestand zu berechnen. In diesem Artikel werden wir die einfache Volatilität verbessern und den exponentiell gewichteten gleitenden Durchschnitt (EWMA) diskutieren. Historische Vs. Implizite Volatilität Zuerst können wir diese Metrik in ein bisschen Perspektive bringen. Es gibt zwei breite Ansätze: historische und implizite (oder implizite) Volatilität. Der historische Ansatz geht davon aus, dass Vergangenheit Prolog ist, messen wir die Geschichte in der Hoffnung, dass es prädiktiv ist. Implizite Volatilität hingegen ignoriert die Geschichte, die sie für die Volatilität der Marktpreise löst. Es hofft, dass der Markt am besten weiß und dass der Marktpreis, auch wenn implizit, eine Konsensschätzung der Volatilität enthält. (Für verwandte Lesung siehe die Verwendungen und Grenzen der Volatilität.) Wenn wir uns nur auf die drei historischen Ansätze konzentrieren (links oben), haben sie zwei Schritte gemeinsam: Berechnen Sie die Reihe der periodischen Renditen Bewerben Sie ein Gewichtungsschema Zuerst haben wir Berechnen Sie die periodische Rückkehr. Das ist typischerweise eine Reihe von täglichen Renditen, bei denen jede Rückkehr in kontinuierlich zusammengesetzten Begriffen ausgedrückt wird. Für jeden Tag nehmen wir das natürliche Protokoll des Verhältnisses der Aktienkurse (d. h. Preis heute geteilt durch den Preis gestern und so weiter). Dies führt zu einer Reihe von täglichen Renditen, von u i zu u i-m. Je nachdem wie viele Tage (m Tage) wir messen. Das bringt uns zum zweiten Schritt: Hier unterscheiden sich die drei Ansätze. In dem vorherigen Artikel (mit Volatility To Gauge Future Risk), haben wir gezeigt, dass unter ein paar akzeptablen Vereinfachungen, die einfache Varianz ist der Durchschnitt der quadrierten Renditen: Beachten Sie, dass dies summiert jede der periodischen Renditen, dann teilt diese Summe durch die Anzahl der Tage oder Beobachtungen (m). Also, es ist wirklich nur ein Durchschnitt der quadratischen periodischen Rückkehr. Setzen Sie einen anderen Weg, jede quadratische Rückkehr wird ein gleiches Gewicht gegeben. Wenn also Alpha (a) ein Gewichtungsfaktor ist (speziell 1 m), dann sieht eine einfache Varianz so aus: Die EWMA verbessert sich auf einfache Abweichung Die Schwäche dieses Ansatzes ist, dass alle Renditen das gleiche Gewicht verdienen. Gestern (sehr neuere) Rückkehr hat keinen Einfluss mehr auf die Varianz als die letzten Monate zurück. Dieses Problem wird durch die Verwendung des exponentiell gewichteten gleitenden Durchschnitts (EWMA) behoben, bei dem neuere Renditen ein größeres Gewicht auf die Varianz haben. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) führt Lambda ein. Der als Glättungsparameter bezeichnet wird. Lambda muss kleiner als eins sein. Unter dieser Bedingung wird anstelle von gleichen Gewichten jede quadrierte Rendite mit einem Multiplikator wie folgt gewichtet: Zum Beispiel neigt RiskMetrics TM, ein Finanzrisikomanagement-Unternehmen, dazu, ein Lambda von 0,94 oder 94 zu verwenden. In diesem Fall ist das erste ( (1 - 0,94) (94) 0 6. Die nächste quadratische Rückkehr ist einfach ein Lambda-Vielfaches des vorherigen Gewichts in diesem Fall 6 multipliziert mit 94 5,64. Und das dritte vorherige Tagegewicht ist gleich (1-0,94) (0,94) 2 5,30. Das ist die Bedeutung von Exponential in EWMA: jedes Gewicht ist ein konstanter Multiplikator (d. h. Lambda, der kleiner als eins sein muss) des vorherigen Tagegewichts. Dies stellt eine Varianz sicher, die gewichtet oder voreingenommen auf neuere Daten ist. (Um mehr zu erfahren, schau dir das Excel-Arbeitsblatt für Googles-Volatilität an.) Der Unterschied zwischen einfacher Volatilität und EWMA für Google ist unten dargestellt. Die einfache Volatilität wirkt effektiv jede periodische Rendite um 0,196, wie in Spalte O gezeigt (wir hatten zwei Jahre täglich Kursdaten, das sind 509 tägliche Renditen und 1509 0,196). Aber beachten Sie, dass Spalte P ein Gewicht von 6, dann 5.64, dann 5.3 und so weiter zuteilt. Das ist der einzige Unterschied zwischen einfacher Varianz und EWMA. Denken Sie daran: Nachdem wir die ganze Serie (in Spalte Q) zusammengefasst haben, haben wir die Varianz, die das Quadrat der Standardabweichung ist. Wenn wir Volatilität wollen, müssen wir uns daran erinnern, die Quadratwurzel dieser Varianz zu nehmen. Was ist der Unterschied in der täglichen Volatilität zwischen der Varianz und EWMA im Googles-Fall Sein signifikant: Die einfache Varianz gab uns eine tägliche Volatilität von 2,4, aber die EWMA gab eine tägliche Volatilität von nur 1,4 (siehe die Kalkulationstabelle für Details). Anscheinend hat sich die Googles-Volatilität in jüngster Zeit niedergelassen, eine einfache Varianz könnte künstlich hoch sein. Heutige Varianz ist eine Funktion von Pior Days Variance Youll bemerken wir brauchten, um eine lange Reihe von exponentiell abnehmenden Gewichten zu berechnen. Wir werden die Mathematik hier nicht machen, aber eines der besten Features der EWMA ist, dass die ganze Serie bequem auf eine rekursive Formel reduziert: Rekursive bedeutet, dass heutige Varianzreferenzen (d. h. eine Funktion der vorherigen Tagesabweichung) ist. Sie finden diese Formel auch in der Kalkulationstabelle, und sie erzeugt genau das gleiche Ergebnis wie die Langzeitberechnung Es heißt: Die heutige Varianz (unter EWMA) ist gleichbedeutend mit der vulkanischen Varianz (gewichtet durch Lambda) plus gestern quadrierte Rückkehr (gewogen von einem Minus Lambda). Beachten Sie, wie wir nur zwei Begriffe zusammenfügen: gestern gewichtete Varianz und gestern gewichtet, quadratische Rückkehr. Dennoch ist Lambda unser Glättungsparameter. Ein höheres Lambda (z. B. RiskMetrics 94) zeigt einen langsamen Abfall in der Serie an - in relativer Hinsicht werden wir mehr Datenpunkte in der Serie haben und sie werden langsamer abfallen. Auf der anderen Seite, wenn wir das Lambda reduzieren, zeigen wir einen höheren Zerfall an: die Gewichte fallen schneller ab, und als direkte Folge des schnellen Zerfalls werden weniger Datenpunkte verwendet. (In der Kalkulationstabelle ist Lambda ein Eingang, also kannst du mit seiner Empfindlichkeit experimentieren). Zusammenfassung Volatilität ist die momentane Standardabweichung eines Bestandes und die häufigste Risikometrität. Es ist auch die Quadratwurzel der Varianz. Wir können die Abweichung historisch oder implizit (implizite Volatilität) messen. Wenn man historisch misst, ist die einfachste Methode eine einfache Varianz. Aber die Schwäche mit einfacher Abweichung ist, dass alle Renditen das gleiche Gewicht bekommen. So stehen wir vor einem klassischen Kompromiss: Wir wollen immer mehr Daten, aber je mehr Daten wir haben, desto mehr wird unsere Berechnung durch entfernte (weniger relevante) Daten verdünnt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) verbessert die einfache Varianz durch die Zuordnung von Gewichten zu den periodischen Renditen. Auf diese Weise können wir beide eine große Stichprobengröße verwenden, aber auch ein größeres Gewicht auf neuere Renditen geben. (Um ein Film-Tutorial zu diesem Thema zu sehen, besuchen Sie die Bionic Turtle.) Der EWMA-Ansatz hat ein attraktives Merkmal: Es erfordert relativ wenig gespeicherte Daten. Um unsere Schätzung an jedem Punkt zu aktualisieren, benötigen wir nur eine vorherige Schätzung der Varianzrate und des letzten Beobachtungswertes. Ein sekundäres Ziel der EWMA ist es, Veränderungen in der Volatilität zu verfolgen. Für kleine Werte beeinflussen die jüngsten Beobachtungen die Schätzung umgehend. Bei Werten, die näher an einer liegen, ändert sich die Schätzung langsam auf der Grundlage der jüngsten Änderungen der Renditen der zugrunde liegenden Variablen. Die RiskMetrics-Datenbank (von JP Morgan produziert und öffentlich zugänglich gemacht) nutzt die EWMA mit der Aktualisierung der täglichen Volatilität. WICHTIG: Die EWMA-Formel übernimmt keine langfristige durchschnittliche Abweichung. So ist das Konzept der Volatilität die Reversion nicht von der EWMA erfasst. Die ARCHGARCH Modelle sind dafür besser geeignet. Ein sekundäres Ziel von EWMA ist es, Veränderungen in der Volatilität zu verfolgen, so dass für kleine Werte die jüngste Beobachtung die Schätzung umgehend beeinflussen wird, und für Werte, die näher an einem liegen, ändert sich die Schätzung langsam zu den jüngsten Veränderungen der Renditen der zugrunde liegenden Variablen. Die RiskMetrics-Datenbank (produziert von JP Morgan), die 1994 veröffentlicht wurde, nutzt das EWMA-Modell mit der Aktualisierung der täglichen Volatilitätsschätzung. Das Unternehmen stellte fest, dass über eine Reihe von Marktvariablen, dieser Wert der Prognose der Varianz, die am nächsten zu realisierten Varianz Rate kommt. Die realisierten Abweichungsraten an einem bestimmten Tag wurden in den folgenden 25 Tagen als gleichgewichteter Durchschnitt berechnet. Um den optimalen Wert von Lambda für unseren Datensatz zu berechnen, müssen wir die realisierte Volatilität an jedem Punkt berechnen. Es gibt mehrere Methoden, so wählen Sie eine. Als nächstes berechnen Sie die Summe der quadratischen Fehler (SSE) zwischen EWMA-Schätzung und realisierte Volatilität. Schließlich minimiere die SSE durch Variieren des Lambdawertes. Klingt einfach Es ist. Die größte Herausforderung besteht darin, einen Algorithmus zu vereinbaren, um die verwirklichte Volatilität zu berechnen. Zum Beispiel wählten die Leute bei RiskMetrics den folgenden 25-Tage-Tag, um die realisierte Varianzrate zu berechnen. In Ihrem Fall können Sie einen Algorithmus wählen, der Tägliche Volumen-, HILO - und OPEN-CLOSE-Preise nutzt. Q 1: Können wir EWMA verwenden, um die Volatilität mehr als einen Schritt voraus zu schätzen Die EWMA-Volatilitätsdarstellung nimmt keine langjährige durchschnittliche Volatilität ein, und für jeden prognostizierten Horizont über einen Schritt hinaus gibt die EWMA eine Konstante zurück Wert: GARCH und EWMA 21. Mai 2010 von David Harper, CFA, FRM, CIPM AIM: Vergleichen, kontrastieren und berechnen parametrische und nichtparametrische Ansätze zur Schätzung der bedingten Volatilität 8230 Inklusive: GARCH APPROACH Inklusive: EXPONENTIAL SMOOTHING (EWMA) Exponentielle Glättung (bedingt Parametrische) Moderne Methoden legen mehr Gewicht auf aktuelle Informationen. Sowohl EWMA als auch GARCH legen mehr Gewicht auf aktuelle Informationen. Weiterhin, da EWMA ein Spezialfall von GARCH ist, setzen EWMA und GARCH eine exponentielle Glättung ein. GARCH (p, q) und insbesondere GARCH (1, 1) GARCH (p, q) ist ein allgemein autoregressives, bedingtes heteroskedastisches Modell. Zu den wichtigsten Aspekten gehören: Autoregressive (AR). Morgen8217s Varianz (oder Volatilität) ist eine regressierte Funktion von heute8217s varance8212it regresses auf sich selbst Bedingung (C). Morgen8217svarianz hängt von der letzten Abweichung ab. Eine bedingungslose Abweichung würde nicht von heute abhängen8217s Varianz Heteroskedastic (H). Abweichungen sind nicht konstant, sie fließen im Laufe der Zeit GARCH regresses auf 8220lagged8221 oder historische Begriffe. Die verzögerten Begriffe sind entweder Varianz oder quadrierte Renditen. Das generische GARCH (p, q) Modell regressiert auf (p) quadratischen Rückkehr und (q) Abweichungen. Daher GARCH (1, 1) 8220lags8221 oder regresses auf letzter Periode8217s quadrierte Rückkehr (d. h. nur 1 Rückkehr) und letzte Periode8217s Varianz (d. h. nur 1 Varianz). GARCH (1, 1) gegeben durch die folgende Gleichung. Die gleiche GARCH (1, 1) Formel kann mit griechischen Parametern gegeben werden: Hull schreibt dieselbe GARCH-Gleichung wie folgt: Der erste Term (gVL) ist wichtig, weil VL die Langzeit-Durchschnittsvarianz ist. Daher ist (gVL) ein Produkt: Es ist die gewichtete Langzeit-Durchschnittsabweichung. Das Modell GARCH (1, 1) löst für die bedingte Varianz als Funktion von drei Variablen (vorherige Varianz, vorherige Rückkehr2 und Langzeitvarianz): Persistenz ist ein Merkmal, das im GARCH-Modell eingebettet ist. Tipp: In den obigen Formeln ist die Persistenz (b ​​c) oder (alpha-1 beta). Persistenz bezieht sich darauf, wie schnell (oder langsam) die Varianz zurückkehrt oder auf den langjährigen Durchschnitt zurückkehrt. Hohe Beharrlichkeit entspricht dem langsamen Zerfall und der langsamen Abbau der mittleren Verhältnisse entspricht dem raschen Zerfall und der schnellen Verringerung des Mittels.8221 Eine Beharrlichkeit von 1,0 impliziert keine mittlere Reversion. Eine Beharrlichkeit von weniger als 1,0 impliziert 8220reversion zum Mittelwert, 8221 wo eine niedrigere Persistenz eine stärkere Reversion zum Mittel bedeutet. Tipp: Wie oben ist die Summe der Gewichte, die der verzögerten Varianz und der verzögerten quadratischen Rückkehr zugeordnet sind, die Beharrlichkeit (bc persistence). Eine hohe Beharrlichkeit (größer als null, aber weniger als eins) impliziert eine langsame Rückkehr zum Mittelwert. Aber wenn die Gewichte, die der verzögerten Varianz und der zurückgebliebenen quadratischen Rückkehr zugeordnet sind, größer als eins sind, ist das Modell nicht stationär. Ist (bc) größer als 1 (wenn bc gt 1) ist das Modell nicht stationär und nach Hull instabil. In diesem Fall wird EWMA bevorzugt. Linda Allen sagt über GARCH (1, 1): GARCH ist sowohl 8220compact8221 (d. h. relativ einfach) und bemerkenswert genau. GARCH-Modelle dominieren in der wissenschaftlichen Forschung. Viele Variationen des GARCH-Modells wurden versucht, aber nur wenige haben das Original verbessert. Der Nachteil des GARCH-Modells ist seine Nichtlinearität sic Zum Beispiel: Für die Langzeitvarianz in GARCH lösen (1,1) Betrachten wir die GARCH (1, 1) Gleichung unten: Angenommen, der Alpha-Parameter 0.2, der Beta-Parameter 0,7, Und beachten Sie, dass Omega ist 0,2 aber don8217t Fehler Omega (0,2) für die langfristige Varianz Omega ist das Produkt von Gamma und die langfristige Varianz. Also, wenn Alpha Beta 0,9, dann muss Gamma 0,1 sein. Angesichts der Tatsache, dass Omega 0,2 ist, wissen wir, dass die Langzeitabweichung 2,0 (0,2 184 0,1 2,0) betragen muss. GARCH (1,1): Der bloße Notationsunterschied zwischen Hull und Allen EWMA ist ein Spezialfall von GARCH (1,1) und GARCH (1,1) ist ein allgemeiner Fall von EWMA. Der herausragende Unterschied besteht darin, dass GARCH den zusätzlichen Term für die mittlere Reversion enthält und EWMA eine mittlere Reversion fehlt. Hier gelangen wir von GARCH (1,1) zu EWMA: Dann lassen wir 0 und (bc) 1, so dass die obige Gleichung vereinfacht wird: Dies entspricht nun der Formel für exponentiell gewichtete gleitende Mittelwerte (EWMA): In EWMA bestimmt der Lambda-Parameter nun den 8220decay: 8221 ein Lambda, der nahe bei einem (hohen Lambda) liegt, zeigt einen langsamen Abfall. Der RiskMetricsTM-Ansatz RiskMetrics ist eine Markenform des exponentiell gewichteten gleitenden Durchschnitts (EWMA) - Ansatzes: Das optimale (theoretische) Lambda variiert je nach Assetklasse, aber der von RiskMetrics verwendete Gesamt-Optimal-Parameter betrug 0,94. In der Praxis verwendet RiskMetrics nur einen Zerfallsfaktor für alle Serien: 183 0,94 für Tagesdaten 183 0,97 für monatliche Daten (Monat definiert als 25 Handelstage) Technisch sind die täglichen und monatlichen Modelle inkonsistent. Allerdings sind sie beide einfach zu bedienen, sie approximieren das Verhalten der tatsächlichen Daten ganz gut, und sie sind robust zu misspecification. Hinweis: GARCH (1, 1), EWMA und RiskMetrics sind jeweils parametrisch und rekursiv. Rekursive EWMA Vorteile und Nachteile von MA (dh STDEV) vs. GARCH Grafische Zusammenfassung der parametrischen Methoden, die den jüngsten Erträgen mehr Gewicht verleihen (GARCH amp EWMA) Zusammenfassung Tipps: GARCH (1, 1) ist verallgemeinert RiskMetrics und umgekehrt ist RiskMetrics Beschränkter Fall von GARCH (1,1) wobei a 0 und (bc) 1. GARCH (1, 1) gegeben ist durch: Die drei Parameter sind Gewichte und müssen daher zu einem: Tip: Sei vorsichtig über den ersten Begriff in der GARCH (1, 1) Gleichung: omega () gamma () (durchschnittliche Langzeitvarianz). Wenn Sie nach der Varianz gefragt sind, müssen Sie das Gewicht aufteilen, um die durchschnittliche Varianz zu berechnen. Bestimmen Sie, wann und ob ein GARCH - oder EWMA-Modell in der Volatilitätsschätzung verwendet werden soll. In der Praxis sind die Abweichungsraten in der Regel ein Mittelwert, so dass das GARCH (1, 1) - Modell theoretisch überlegen ist (8220 eher ansprechend als8221) an das EWMA-Modell. Denken Sie daran, dass8217s der große Unterschied: GARCH fügt den Parameter hinzu, der den Langzeitdurchschnitt gewichtet hat und daher eine mittlere Reversion beinhaltet. Tipp: GARCH (1, 1) ist bevorzugt, wenn der erste Parameter nicht negativ ist (was impliziert wird, wenn alpha beta gt 1). In diesem Fall ist GARCH (1,1) instabil und EWMA ist bevorzugt. Erläutern Sie, wie die GARCH-Schätzungen Prognosen liefern können, die genauer sind. Der gleitende Durchschnitt berechnet die Varianz auf der Grundlage eines nachlaufenden Beobachtungsfensters, z. B. Die letzten zehn Tage, die letzten 100 Tage. Es gibt zwei Probleme mit gleitendem Durchschnitt (MA): Ghosting-Funktion: Volatilitätsstöße (plötzliche Erhöhungen) werden abrupt in die MA-Metrik integriert und dann, wenn das nachlaufende Fenster vergeht, werden sie plötzlich aus der Berechnung fallen gelassen. Dadurch wird die MA-Metrik in Bezug auf die gewählte Fensterlänge verschoben. Trendinformationen werden nicht berücksichtigt GARCH-Schätzungen verbessern diese Schwächen auf zwei Arten: Neuere Beobachtungen werden mit größeren Gewichten vergeben. Dies überwindet das Geisterbild, weil ein Volatilitätsschock sofort die Schätzung beeinflussen wird, aber sein Einfluss wird allmählich verblassen, wenn die Zeit vergeht. Ein Begriff wird hinzugefügt, um die Reversion in den Mittelwert zu integrieren. Erklären Sie, wie die Beharrlichkeit mit der Rückkehr zum Mittelwert zusammenhängt. Angesichts der GARCH (1, 1) Gleichung: Die Persistenz ist gegeben durch: GARCH (1, 1) ist instabil, wenn die Persistenz gt 1. Eine Persistenz von 1,0 bedeutet keine mittlere Reversion. Eine geringe Persistenz (z. B. 0,6) zeigt einen schnellen Abfall und eine hohe Reversion zum Mittel an. Tipp: GARCH (1, 1) hat drei Gewichte, die drei Faktoren zugeordnet sind. Persistenz ist die Summe der Gewichte, die sowohl der verzögerten Varianz als auch der verzögerten quadratischen Rückkehr zugeordnet sind. Das andere Gewicht ist der Langzeitvarianz zugeordnet. Wenn P-Persistenz und G-Gewicht der Langzeit-Varianz zugeordnet sind, dann gilt PG 1. Wenn also P (Persistenz) hoch ist, dann ist G (mittlere Reversion) niedrig: Die anhaltende Reihe ist nicht stark, das bedeutet, dass sie sich zurückzieht bedeuten. Wenn P niedrig ist, dann muss G hoch sein: die unauffällige Reihe bedeutet stark, dass es zurückkehrt, zeigt es 8220rapid decay8221 zum Mittelwert. Die durchschnittliche, bedingungslose Varianz des GARCH (1, 1) Modells ist gegeben durch: Erläutern Sie, wie EWMA systematisch ältere Daten abgibt und die täglichen und monatlichen Zerfallsfaktoren von RiskMetrics174 identifiziert. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) ist gegeben durch: Die obige Formel ist eine rekursive Vereinfachung der 8220true8221 EWMA-Serie, die gegeben ist durch: In der EWMA-Reihe ist jedes Gewicht, das den quadrierten Rückgängen zugeordnet ist, ein konstantes Verhältnis des vorhergehenden Gewichts. Speziell ist Lambda (l) das Verhältnis zwischen benachbarten Gewichten. Auf diese Weise werden ältere Daten systematisch abgezinst. Der systematische Rabatt kann schrittweise (langsam) oder abrupt, je nach Lambda. Wenn Lambda hoch ist (z. B. 0,99), dann ist die Diskontierung sehr allmählich. Wenn Lambda niedrig ist (z. B. 0,7), ist die Diskontierung abrupt. Die RiskMetrics TM-Zerfallsfaktoren: 0,94 für tägliche Daten 0,97 für monatliche Daten (Monat definiert als 25 Handelstage) Erläutern Sie, warum Prognose-Korrelationen wichtiger sein können als die Prognose von Volatilitäten. Bei der Messung des Portfolio-Risikos können Korrelationen wichtiger sein als die individuelle Volatilitätsvariabilität. Daher kann im Hinblick auf das Portfolio-Risiko eine Korrelationsvorhersage wichtiger sein als einzelne Volatilitätsprognosen. Verwenden Sie GARCH (1, 1) zur Prognose der Volatilität Die erwartete zukünftige Varianzrate in (t) Perioden vorwärts ist gegeben durch: Nehmen wir beispielsweise an, dass eine aktuelle Volatilitätsschätzung (Periode n) durch die folgenden GARCH (1, 1 ) Gleichung: In diesem Beispiel ist alpha das Gewicht (0,1), das der vorherigen quadratischen Rückkehr zugeordnet ist (die vorherige Rückkehr war 4), beta ist das Gewicht (0,7), das der vorherigen Varianz (0,0016) zugeordnet ist. Was ist die erwartete zukünftige Volatilität, in zehn Tagen (n 10) Erstens, für die langfristige Varianz zu lösen. Es ist nicht 0,00008 dieser Begriff ist das Produkt der Varianz und sein Gewicht. Da das Gewicht 0,2 (1 - 0,1 - 0,7) betragen muss, beträgt die Langzeitabweichung 0,0004. Zweitens brauchen wir die aktuelle Varianz (Periode n). Das ist uns fast oben gegeben: Jetzt können wir die Formel anwenden, um für die erwartete zukünftige Varianz zu lösen: Dies ist die erwartete Varianzrate, so dass die erwartete Volatilität etwa 2,24 beträgt. Beachten Sie, wie das funktioniert: Die aktuelle Volatilität beträgt etwa 3,69 und die Langzeitvolatilität ist 2. Die 10-Tage-Vorwärtsprojektion 8220fades8221 die aktuelle Rate näher an der Langzeitrate. Nichtparametrische Volatilitätsvorhersage

No comments:

Post a Comment