Exponentiell Gewichtete Gleitende Durchschnitt Pandas
Hmmm, es scheint, diese einfach zu implementieren Funktion ist eigentlich ziemlich einfach, falsch zu werden und hat eine gute Diskussion über Gedächtnis Effizienz gefördert Ich bin glücklich, aufblasen, wenn es bedeutet zu wissen, dass etwas richtig gemacht wurde Richard Sep 20 14 um 19 23.NumPy Der Mangel an einer bestimmten domänenspezifischen Funktion ist vielleicht auf die Disziplin des Core Teams zurückzuführen, und die Treue zu NumPy s Prime Directive bietet einen N-dimensionalen Array-Typ sowie Funktionen zum Erstellen und Indizieren dieser Arrays Wie viele grundlegende Ziele, diese Ist nicht klein, und NumPy macht es brillant. Die viel größere SciPy enthält eine viel größere Sammlung von Domain-spezifischen Bibliotheken namens Subpackages von SciPy Devs - zum Beispiel numerische Optimierung zu optimieren, Signal Processing Signal und integrale Kalkül integrieren. Meine Vermutung ist Dass die Funktion, die Sie nachher sind, in mindestens einem der SciPy-Unterpakete vielleicht aber ich würde zuerst in der Sammlung von SciPy Scikits identifizieren die relevanten scikit s und suchen nach Die Funktion von Interesse dort. Scikits sind unabhängig entwickelte Pakete auf der Grundlage von NumPy SciPy und gerichtet auf eine bestimmte technische Disziplin zB Scikits-Bild Scikits-Lernen usw. Mehrere von diesen waren vor allem die awesome OpenOpt für numerische Optimierung wurden hoch angesehen, reife Projekte lange Vor der Wahl zu wohnen unter der relativ neuen scikits rubric Die Scikits Homepage gern oben listet etwa 30 solcher Scikits, obwohl mindestens einige von denen sind nicht mehr unter aktiver Entwicklung. Nach diesem Rat würde Sie zu scikits-timeseries führen, aber das Paket ist nein Länger unter aktiver entwicklung In der Tat ist Pandas geworden, AFAIK, die de facto NumPy-basierte Zeitreihenbibliothek. Pandas hat mehrere Funktionen, die verwendet werden können, um einen gleitenden Durchschnitt zu berechnen, das einfachste von diesen ist wahrscheinlich rollingmean, die Sie wie so verwenden , Rufen Sie einfach die Funktion rollingmean passing in der Serie Objekt und eine Fenstergröße, die in meinem Beispiel unten ist 10 Tage. verifizieren, dass es w Orked - zB verglichene Werte 10 - 15 in der Originalreihe gegen die neue Serie geglättet mit rollenden Mittel. Die Funktion Rollingmean, zusammen mit etwa einem Dutzend oder so anderen Funktion sind informell gruppiert in der Pandas Dokumentation unter der Rubrik beweglichen Fenster Funktionen eine Sekunde , Verwandte Gruppe von Funktionen in Pandas wird als exponentiell gewichtete Funktionen bezeichnet, zB ewma, die exponentiell verschobenen gewichteten Durchschnitt berechnet. Die Tatsache, dass diese zweite Gruppe nicht in die ersten beweglichen Fensterfunktionen eingeschlossen ist, liegt vielleicht daran, dass die exponentiell gewichteten Transformationen nicht darauf ankommen Ein fester Längefenster. derwerted Jan 14 13 at 6 38.Exploring Die exponentiell gewichtete Moving Average. Volatility ist die häufigste Maßnahme des Risikos, aber es kommt in mehreren Geschmacksrichtungen In einem früheren Artikel haben wir gezeigt, wie man einfache historische Volatilität zu berechnen Lesen Sie diesen Artikel, siehe Verwenden der Volatilität, um zukünftiges Risiko zu messen Wir haben die tatsächlichen Aktienkursdaten von Google verwendet, um die tägliche Volatilität auf der Grundlage von 3 zu berechnen 0 Tage der Bestandsdaten In diesem Artikel werden wir auf einfache Volatilität zu verbessern und diskutieren die exponentiell gewichtete gleitenden Durchschnitt EWMA Historical Vs Implizite Volatilität Zuerst lassen Sie diese Metrik in ein bisschen Perspektive Es gibt zwei breite Ansätze historische und implizite oder implizite Volatilität Der historische Ansatz geht davon aus, dass Vergangenheit Prolog ist, messen wir die Geschichte in der Hoffnung, dass es prädiktiv ist. Implizite Volatilität hingegen ignoriert die Geschichte, die sie für die Volatilität der Marktpreise löst. Es hofft, dass der Markt am besten kennt und der Marktpreis enthält , Auch wenn implizit, ein Konsens Schätzung der Volatilität Für verwandte Lesung, siehe Die Verwendungen und Grenzen der Volatilität. Wenn wir auf nur die drei historischen Ansätze auf der linken Seite konzentrieren, haben sie zwei Schritte gemeinsam. Calculate die Reihe von periodischen Renditen. Wenden Sie ein Gewichtungsschema an. Zuerst berechnen wir die periodische Rückkehr. Das ist typischerweise eine Reihe von täglichen Renditen, bei denen jede Rückkehr in kontinuierlich co ausgedrückt wird Mpounded Begriffe Für jeden Tag nehmen wir das natürliche Protokoll des Verhältnisses der Aktienkurse, dh Preis heute geteilt durch Preis gestern, und so weiter. Dies produziert eine Reihe von täglichen Renditen, von ui zu u im je nachdem, wie viele Tage m Tage wir Messen. das bringt uns in den zweiten Schritt Dies ist, wo die drei Ansätze unterscheiden Im vorherigen Artikel Mit Volatility To Gauge Future Risk, zeigten wir, dass unter ein paar akzeptable Vereinfachungen, die einfache Varianz ist der Durchschnitt der quadratischen returns. Notice Dass dies summiert jede der periodischen Rückkehr, dann teilt diese Summe durch die Anzahl der Tage oder Beobachtungen m Also, es ist wirklich nur ein Durchschnitt der quadrierten periodischen Rückkehr Setzen Sie einen anderen Weg, jede quadratische Rückkehr wird ein gleiches Gewicht gegeben Also, wenn Alpha a Ist ein Gewichtungsfaktor speziell, ein 1 m, dann eine einfache Varianz sieht so etwas aus. Die EWMA verbessert sich auf einfache Abweichung Die Schwäche dieses Ansatzes ist, dass alle Renditen das gleiche Gewicht verdienen. Gestern ist die jüngste Rückkehr kein Mo Einfluss auf die Varianz als letztes Monat s return Dieses Problem wird durch die Verwendung des exponentiell gewichteten gleitenden durchschnittlichen EWMA behoben, bei dem neuere Renditen ein größeres Gewicht auf die Varianz haben. Der exponentiell gewichtete gleitende Durchschnitt EWMA führt Lambda ein, der als Glättungsparameter Lambda bezeichnet wird Muss kleiner als eins sein Unter dieser Bedingung, anstelle von gleichen Gewichten, wird jede quadratische Rückkehr durch einen Multiplikator wie folgt gewichtet. Zum Beispiel, RiskMetrics TM, ein Finanzrisiko-Management-Unternehmen, neigt dazu, ein Lambda von 0 94 oder 94 zu verwenden Fall ist die erste jüngste quadrierte periodische Rückkehr gewichtet um 1-0 94 94 0 6 Die nächste quadratische Rückkehr ist einfach ein Lambda-Vielfache des vorherigen Gewichts in diesem Fall 6 multipliziert mit 94 5 64 Und das dritte Jahr des Tages ist gleich 1-0 94 0 94 2 5 30.Dies ist die Bedeutung von exponentiell in EWMA jedes Gewicht ist ein konstanter Multiplikator dh Lambda, der kleiner sein muss als eines der vorherigen Tage Gewicht Dies stellt eine Varianz, die gewichtet oder voreingenommen Tow ist Ard neuere Daten Um mehr zu erfahren, schau dir das Excel-Arbeitsblatt für die Volatilität von Google an. Der Unterschied zwischen einfacher Volatilität und EWMA für Google wird unten gezeigt. Einfache Volatilität wirkt effektiv jede periodische Rückkehr um 0 196, wie in Spalte O gezeigt, die wir zwei hatten Jahre der täglichen Aktienkursdaten Das ist 509 Tagesrenditen und 1 509 0 196 Aber beachten Sie, dass die Spalte P ein Gewicht von 6, dann 5 64, dann 5 3 und so weiter gibt. Das ist der einzige Unterschied zwischen einfacher Varianz und EWMA. Remember After Wir summieren die ganze serie in der säule Q wir haben die abweichung, die das quadrat der standardabweichung ist Wenn wir Volatilität wollen, müssen wir uns daran erinnern, die Quadratwurzel dieser Varianz zu nehmen. Was ist der Unterschied in der täglichen Volatilität zwischen der Varianz und EWMA in Google s Fall Es ist wichtig Die einfache Varianz gab uns eine tägliche Volatilität von 2 4, aber die EWMA gab eine tägliche Volatilität von nur 1 4 siehe die Kalkulationstabelle für Details Anscheinend hat sich die Volatilität von Google vor kurzem dort niedergelassen Eine einfache Abweichung könnte künstlich hoch sein. Heute ist die Abweichung eine Funktion der Pior-Tag-Abweichung Sie werden bemerken, dass wir eine lange Reihe von exponentiell abnehmenden Gewichten berechnen müssen. Wir haben die Mathematik hier gewonnen, aber eines der besten Eigenschaften von Die EWMA ist, dass die ganze Serie bequem zu einer rekursiven formula. Recursive bedeutet, dass heute s Varianzreferenzen dh eine Funktion der Vorabentscheidungsvarianz ist. Diese Formel finden Sie auch in der Kalkulationstabelle, und es erzeugt genau das gleiche Ergebnis wie das Langzeit-Kalkulation Es heißt Heute s Abweichung unter EWMA gleich gestern s Abweichung gewichtet von Lambda plus gestern s quadrierte Rückkehr gewogen von einem minus lambda Hinweis, wie wir nur addieren zwei Begriffe zusammen gestern s gewichtete Varianz und gestern gewichtet, quadriert return. Even so, lambda Ist unser Glättungsparameter Ein höherer Lambda zB wie RiskMetric s 94 zeigt langsameren Zerfall in der Serie - in relativer Hinsicht werden wir mehr Datenpunkte in der Serie und der Y werden langsam abfallen. Andererseits, wenn wir das Lambda reduzieren, geben wir einen höheren Zerfall an, bei dem die Gewichte schneller abfallen und als direkte Folge des schnellen Zerfalls weniger Datenpunkte verwendet werden. In der Kalkulationstabelle lambda Ist ein Input, also kannst du mit seiner Sensitivität experimentieren. Zusammenfassung Volatilität ist die augenblickliche Standardabweichung eines Bestandes und die häufigste Risikometrik Es ist auch die Quadratwurzel der Varianz Wir können die Varianz historisch oder implizit implizite Volatilität messen Einfachste Methode ist einfache Varianz Aber die Schwäche mit einfacher Varianz ist alles Rückkehr bekommen das gleiche Gewicht Also wir stehen vor einem klassischen Kompromiss Wir wollen immer mehr Daten, aber je mehr Daten wir haben, desto mehr wird unsere Berechnung durch weit weniger relevante Daten verdünnt Die exponentiell Gewichteter gleitender Durchschnitt EWMA verbessert die einfache Varianz durch die Zuordnung von Gewichten zu den periodischen Renditen. Dabei können wir beide eine große Stichprobengröße verwenden, aber auch mehr Gewicht mehr geben Jüngsten Renditen. Um ein Film-Tutorial zu diesem Thema zu sehen, besuchen Sie die Bionic Turtle. A Umfrage von der United States Bureau of Labor Statistics durchgeführt, um zu helfen, Stellenangebote zu sammeln Es sammelt Daten von Arbeitgebern. Die maximale Höhe der Gelder der Vereinigten Staaten können leihen Die Schulden Decke war Erstellt unter dem Zweiten Liberty Bond Act. Der Zinssatz, bei dem ein Depotinstitut die Gelder in der Federal Reserve an eine andere Depotbank leiht.1 Ein statistisches Maß für die Verteilung der Renditen für einen bestimmten Wertpapier oder Marktindex Volatilität kann entweder gemessen werden. Ein Akt der US-Kongress verabschiedete 1933 als Bankengesetz, das Geschäftsbanken daran hinderte, an der Investition teilzunehmen. Nichts Lohnsumme bezieht sich auf irgendeinen Job außerhalb der landwirtschaftlichen Betriebe, der privaten Haushalte und des gemeinnützigen Sektors Das US Bureau of Labor. Moving Durchschnitt und exponentielle Glättung Modelle. Ein erster Schritt in Bewegung über mittlere Modelle, zufällige Walk-Modelle und lineare Trend-Modelle, Nicht-Season-Muster und Trends können extrapo sein Gezeichnet mit einem gleitenden Durchschnitt oder Glättungsmodell Die Grundannahme hinter Mittelwertbildung und Glättung von Modellen ist, dass die Zeitreihe lokal stationär mit einem langsam variierenden Mittel ist. Daher nehmen wir einen bewegten lokalen Durchschnitt, um den aktuellen Wert des Mittelwertes zu schätzen und dann zu verwenden Als Prognose für die nahe Zukunft Dies kann als Kompromiss zwischen dem mittleren Modell und dem zufälligen Walk-ohne-Drift-Modell angesehen werden. Die gleiche Strategie kann verwendet werden, um einen lokalen Trend abzuschätzen und zu extrapolieren. Ein gleitender Durchschnitt wird oft als geglättet bezeichnet Version der ursprünglichen Serie, weil kurzfristige Mittelung hat die Wirkung der Glättung der Beulen in der ursprünglichen Serie Durch die Anpassung der Grad der Glättung der Breite des gleitenden Durchschnitt, können wir hoffen, eine Art von optimalen Gleichgewicht zwischen der Leistung der Mittlere und zufällige Wandermodelle Die einfachste Art von Mittelungsmodell ist der. Einfache gleichgewichtete Moving Average. Die Prognose für den Wert von Y zum Zeitpunkt t 1, der zum Zeitpunkt t gemacht wird, entspricht dem s Umsetzung der letzten m Beobachtungen. Hier und anderswo verwende ich das Symbol Y-Hut, um für eine Prognose der Zeitreihe Y zu stehen, die am frühestmöglichen früheren Datum durch ein gegebenes Modell gemacht wurde. Dieser Durchschnitt ist in der Periode & lgr; m 1 2 zentriert, was bedeutet, dass die Schätzung von Das lokale Mittel neigt dazu, hinter dem wahren Wert des lokalen Mittels um etwa m 1 2 Perioden zu liegen. So sagen wir, dass das Durchschnittsalter der Daten im einfachen gleitenden Durchschnitt m 1 2 relativ zu dem Zeitraum ist, für den die Prognose berechnet wird Dies ist die Zeitspanne, mit der die Prognosen dazu neigen, hinter den Wendepunkten in den Daten zu liegen. Zum Beispiel, wenn Sie die letzten 5 Werte mittelschätzen, werden die Prognosen etwa 3 Perioden spät in Reaktion auf Wendepunkte sein. Beachten Sie, dass wenn m 1, Das einfache gleitende durchschnittliche SMA-Modell entspricht dem zufälligen Walk-Modell ohne Wachstum Wenn m sehr groß ist, vergleichbar mit der Länge der Schätzperiode ist das SMA-Modell gleichbedeutend mit dem mittleren Modell Wie bei jedem Parameter eines Prognosemodells ist es üblich Um den Wert von ki anzupassen Um die bestmögliche Anpassung an die Daten zu erhalten, dh die kleinsten Prognosefehler im Durchschnitt. Hierbei handelt es sich um ein Beispiel für eine Serie, die zufällige Schwankungen um ein langsam variierendes Mittel zeigt. Zuerst wollen wir versuchen, es mit einem zufälligen Spaziergang zu platzieren Modell, das entspricht einem einfachen gleitenden Durchschnitt von 1 Term. Die zufällige Spaziergang Modell reagiert sehr schnell auf Änderungen in der Serie, aber in diesem Fall nimmt es viel von dem Rauschen in den Daten die zufälligen Schwankungen sowie das Signal der lokalen Bedeutet, wenn wir stattdessen einen einfachen gleitenden Durchschnitt von 5 Terminen ausprobieren, bekommen wir einen glatteren Prognosen. Der 5-fach einfache gleitende Durchschnitt liefert deutlich kleinere Fehler als das zufällige Spaziergang Modell in diesem Fall Das Durchschnittsalter der Daten in diesem Prognose ist 3 5 1 2, so dass es dazu neigt, hinter Wendepunkte um etwa drei Perioden zurückzukehren. Zum Beispiel scheint ein Abschwung in der Periode 21 aufgetreten zu sein, aber die Prognosen drehen sich nicht um einige Perioden später. Nicht, Term Prognosen aus dem SMA Mod El sind eine horizontale gerade Linie, genauso wie im zufälligen Spaziergangmodell So geht das SMA-Modell davon aus, dass es keinen Trend in den Daten gibt. Allerdings sind die Prognosen aus dem zufälligen Walk-Modell einfach gleich dem letzten beobachteten Wert, die Prognosen von Das SMA-Modell ist gleich einem gewichteten Durchschnitt der jüngsten Werte. Die von Statgraphics für die Langzeitprognosen des einfachen gleitenden Durchschnittes berechneten Konfidenzgrenzen werden nicht größer, wenn der Prognosehorizont zunimmt. Dies ist offensichtlich nicht korrekt. Leider gibt es keinen zugrunde liegenden Statistische Theorie, die uns sagt, wie sich die Konfidenzintervalle für dieses Modell erweitern sollten. Allerdings ist es nicht zu schwer, empirische Schätzungen der Vertrauensgrenzen für die längerfristigen Prognosen zu berechnen. Zum Beispiel könnten Sie eine Tabellenkalkulation erstellen, in der das SMA-Modell steht Würde zur Vorhersage von 2 Schritten voraus, 3 Stufen voraus, etc. innerhalb der historischen Daten Probe Sie konnten dann die Probe Standardabweichungen der Fehler bei jeder Prognose h Orizon, und konstruieren dann Konfidenzintervalle für längerfristige Prognosen durch Hinzufügen und Subtrahieren von Vielfachen der entsprechenden Standardabweichung. Wenn wir einen 9-fach einfach gleitenden Durchschnitt versuchen, bekommen wir noch glattere Prognosen und mehr von einem nacheilenden Effekt. Das Durchschnittsalter ist Jetzt 5 Perioden 9 1 2 Wenn wir einen 19-fachen gleitenden Durchschnitt nehmen, steigt das Durchschnittsalter auf 10.Notice, dass die Prognosen in der Tat hinter den Wendepunkten um etwa 10 Perioden zurückbleiben. Welche Glättung ist am besten für diese Serie Hier ist eine Tabelle, die ihre Fehlerstatistiken vergleicht, auch einen 3-Term-Durchschnitt. Model C, der 5-fache gleitende Durchschnitt, ergibt den niedrigsten Wert von RMSE um eine kleine Marge über die 3-Term - und 9-Term-Mittelwerte und Ihre anderen stats sind fast identisch Also, bei Modellen mit sehr ähnlichen Fehlerstatistiken können wir wählen, ob wir ein wenig mehr Reaktionsfähigkeit oder ein wenig mehr Glätte in den Prognosen bevorzugen. Zurück zum Seitenanfang. Brown s Simple Exponential Glättung exponentiell gewichtet Gleitender Durchschnitt. Das oben beschriebene einfache gleitende Durchschnittsmodell hat die unerwünschte Eigenschaft, dass es die letzten k Beobachtungen gleichermaßen behandelt und alle vorherigen Beobachtungen vollständig ignoriert. Intuitiv sollten die vergangenen Daten in einer allmählicheren Weise diskontiert werden - zum Beispiel die jüngste Beobachtung sollte Bekomme ein bisschen mehr Gewicht als die 2. jüngsten, und die 2. jüngsten sollte ein bisschen mehr Gewicht als die 3. letzte, und so weiter Die einfache exponentielle Glättung SES Modell erreicht dies. Let bezeichnen eine Glättung Konstante eine Zahl zwischen 0 und 1 Eine Möglichkeit, das Modell zu schreiben, besteht darin, eine Reihe L zu definieren, die die aktuelle Ebene repräsentiert, dh der mittlere Mittelwert der Reihe, wie sie von den Daten bis zur Gegenwart geschätzt wird. Der Wert von L zum Zeitpunkt t wird rekursiv aus seinem eigenen vorherigen Wert wie dieser berechnet. Somit ist der aktuelle geglättete Wert eine Interpolation zwischen dem vorherigen geglätteten Wert und der aktuellen Beobachtung, wo die Nähe des interpolierten Wertes auf die meisten re Cent Beobachtung Die Prognose für die nächste Periode ist einfach der aktuelle geglättete Wert. Egalentlich können wir die nächste Prognose direkt in Bezug auf vorherige Prognosen und vorherige Beobachtungen in einer der folgenden gleichwertigen Versionen ausdrücken. In der ersten Version ist die Prognose eine Interpolation Zwischen vorheriger Prognose und vorheriger Beobachtung. In der zweiten Version wird die nächste Prognose durch Anpassung der vorherigen Prognose in Richtung des vorherigen Fehlers um einen Bruchteil erreicht. Ist der Fehler zum Zeitpunkt t In der dritten Version ist die Prognose ein Exponentiell gewichtet, dh ermäßigt gleitender Durchschnitt mit Rabattfaktor 1.Die Interpolationsversion der Prognoseformel ist die einfachste zu verwenden, wenn Sie das Modell auf einer Tabellenkalkulation implementieren, die es in eine einzelne Zelle passt und enthält Zellreferenzen, die auf die vorherige Prognose hinweisen, die vorherige Beobachtung und die Zelle, wo der Wert von gespeichert ist. Hinweis, dass, wenn 1, ist das SES-Modell gleichbedeutend mit einem zufälligen Spaziergang Modell Witz Hout-Wachstum Wenn 0, ist das SES-Modell äquivalent zum mittleren Modell, vorausgesetzt, dass der erste geglättete Wert gleich dem mittleren Return to top of page gesetzt ist. Das Durchschnittsalter der Daten in der einfach-exponentiellen Glättungsprognose ist 1 relativ Zu dem Zeitraum, für den die Prognose berechnet wird. Dies soll nicht offensichtlich sein, aber es kann leicht durch die Auswertung einer unendlichen Reihe gezeigt werden. Daher ist die einfache gleitende Durchschnittsprognose dazu neigt, hinter den Wendepunkten um etwa 1 Perioden zurückzukehren 5 die Verzögerung ist 2 Perioden, wenn 0 2 die Verzögerung 5 Perioden beträgt, wenn 0 1 die Verzögerung 10 Perioden ist, und so weiter. Für ein gegebenes Durchschnittsalter dh Betrag der Verzögerung, ist die einfache exponentielle Glättung SES Prognose etwas überlegen, die einfache Bewegung Durchschnittliche SMA-Prognose, weil sie relativ viel Gewicht auf die jüngste Beobachtung - es ist etwas mehr reagiert auf Veränderungen in der jüngsten Vergangenheit Zum Beispiel ein SMA-Modell mit 9 Begriffe und ein SES-Modell mit 0 2 haben beide ein Durchschnittsalter Von 5 für die da Ta in ihren Prognosen, aber das SES-Modell setzt mehr Gewicht auf die letzten 3 Werte als das SMA-Modell und zugleich vergisst es nicht ganz über Werte, die mehr als 9 Perioden alt sind, wie in dieser Tabelle gezeigt. Ein anderer wichtiger Vorteil von Das SES-Modell über das SMA-Modell ist, dass das SES-Modell einen Glättungsparameter verwendet, der stufenlos variabel ist, so dass er leicht mit einem Solver-Algorithmus optimiert werden kann, um den mittleren quadratischen Fehler zu minimieren. Der optimale Wert des SES-Modells für diese Serie erweist sich Um 0 2961 zu sein, wie hier gezeigt. Das Durchschnittsalter der Daten in dieser Prognose beträgt 1 0 2961 3 4 Perioden, was ähnlich ist wie bei einem 6-fach einfach gleitenden Durchschnitt. Die langfristigen Prognosen aus dem SES-Modell sind Eine horizontale Gerade wie im SMA-Modell und das zufällige Spaziergang Modell ohne Wachstum Allerdings ist zu beachten, dass die von Statgraphics berechneten Konfidenzintervalle nun in einer vernünftig aussehenden Weise abweichen und dass sie wesentlich schmaler sind als die Konfidenzintervalle für den Rand Om walk model Das SES-Modell geht davon aus, dass die Serie etwas vorhersehbarer ist als das zufällige Walk-Modell. Ein SES-Modell ist eigentlich ein Spezialfall eines ARIMA-Modells, so dass die statistische Theorie der ARIMA-Modelle eine fundierte Grundlage für die Berechnung von Konfidenzintervallen für die SES-Modell Insbesondere ist ein SES-Modell ein ARIMA-Modell mit einer nicht-seasonalen Differenz, einem MA 1-Term und keinem konstanten Term, der sonst als ARIMA-0,1,1-Modell ohne Konstante bekannt ist. Der MA 1 - Koeffizient im ARIMA-Modell entspricht dem Menge 1 im SES-Modell Wenn Sie beispielsweise ein ARIMA-0,1,1-Modell ohne Konstante an die hier analysierte Baureihe anpassen, erweist sich der geschätzte MA 1 - Koeffizient auf 0 7029, was fast genau ein minus 0 2961 ist. Es ist möglich, die Annahme eines nicht-null konstanten linearen Trends zu einem SES-Modell hinzuzufügen. Dazu geben Sie einfach ein ARIMA-Modell mit einer nicht-seasonalen Differenz und einem MA 1-Term mit einer Konstante, dh einem ARIMA 0,1,1-Modell an Mit konstanten Die langfristigen prognosen werden Dann haben Sie einen Trend, der gleich der durchschnittlichen Tendenz ist, die über die gesamte Schätzperiode beobachtet wird. Sie können dies nicht in Verbindung mit saisonaler Anpassung tun, da die saisonalen Anpassungsoptionen deaktiviert sind, wenn der Modelltyp auf ARIMA eingestellt ist. Allerdings können Sie eine konstante Länge hinzufügen - Exponentieller Trend zu einem einfachen exponentiellen Glättungsmodell mit oder ohne saisonale Anpassung durch Verwendung der Inflationsanpassungsoption im Prognoseverfahren Die entsprechende Inflationsrate pro Wachstumsrate pro Periode kann als der Steigungskoeffizient in einem linearen Trendmodell, das an die Daten angepasst ist, geschätzt werden Konjunktion mit einer natürlichen Logarithmus-Transformation, oder sie kann auf anderen, unabhängigen Informationen über langfristige Wachstumsaussichten basieren. Zurück zum Seitenanfang. Brown s Linear ie doppelte exponentielle Glättung. Die SMA-Modelle und SES-Modelle gehen davon aus, dass es keinen Trend gibt Jede Art in den Daten, die in der Regel ok oder zumindest nicht zu schlecht für 1-Schritt-voraus Prognosen, wenn die Daten relativ noi ist Sy, und sie können modifiziert werden, um einen konstanten linearen Trend wie oben gezeigt zu integrieren. Was ist mit kurzfristigen Trends Wenn eine Serie eine unterschiedliche Wachstumsrate oder ein zyklisches Muster zeigt, das sich deutlich gegen den Lärm auszeichnet und wenn es nötig ist Prognose mehr als 1 Periode voraus, dann könnte die Schätzung eines lokalen Trends auch ein Problem sein Das einfache exponentielle Glättungsmodell kann verallgemeinert werden, um ein lineares exponentielles Glättungs-LES-Modell zu erhalten, das lokale Schätzungen von Level und Trend berechnet. Der einfachste zeitveränderliche Trend Modell ist Brown s lineares exponentielles Glättungsmodell, das zwei verschiedene geglättete Serien verwendet, die zu verschiedenen Zeitpunkten zentriert sind Die Prognoseformel basiert auf einer Extrapolation einer Linie durch die beiden Zentren Eine ausgefeiltere Version dieses Modells, Holt s, ist Unten diskutiert. Die algebraische Form von Brown s linearen exponentiellen Glättungsmodell, wie das des einfachen exponentiellen Glättungsmodells, kann in einer Anzahl von verschiedenen, aber e ausgedrückt werden Quivalentformen Die Standardform dieses Modells wird gewöhnlich wie folgt ausgedrückt: S bezeichnet die einfach geglättete Reihe, die durch Anwendung einer einfachen exponentiellen Glättung auf die Reihe Y erhalten wird. Das heißt, der Wert von S in der Periode t ist gegeben durch. Erinnern Sie sich, dass unter einfacher exponentieller Glättung dies die Prognose für Y in der Periode t 1 sein würde. Dann sei S die doppelt geglättete Reihe, die durch Anwendung einer einfachen exponentiellen Glättung unter Verwendung derselben zu der Reihe S erhalten wird. Zunächst ist die Prognose für Y tk für irgendwelche K & sub1 ;, ist gegeben durch. Dies ergibt e 1 0, dh ein wenig zu betrügen, und die erste Prognose gleich der tatsächlichen ersten Beobachtung und e 2 Y 2 Y 1, wonach Prognosen unter Verwendung der obigen Gleichung erzeugt werden, ergibt die gleichen angepassten Werte Als die auf S und S basierende Formel, wenn diese mit S 1 S 1 Y 1 gestartet wurden Diese Version des Modells wird auf der nächsten Seite verwendet, die eine Kombination von exponentieller Glättung mit saisonaler Anpassung veranschaulicht. Holt s Linear Exponential Smoothing. Brown S LES-Modell berechnet lokale Schätzungen von Level und Trend durch Glättung der jüngsten Daten, aber die Tatsache, dass es tut dies mit einem einzigen Glättungsparameter stellt eine Einschränkung auf die Datenmuster, dass es in der Lage ist, die Ebene und Trend sind nicht erlaubt, variieren beim Unabhängige Raten Holt s LES Modell adressiert dieses Problem durch die Einbeziehung von zwei Glättungskonstanten, eine für die Ebene und eine für den Trend Zu jeder Zeit t, wie in Browns Modell, gibt es eine Schätzung L t der lokalen Ebene und eine Schätzung T T des lokalen Tendenzes Hier werden sie rekursiv aus dem Wert von Y, der zum Zeitpunkt t beobachtet wurde, und den vorherigen Schätzungen des Niveaus und des Tendenzes durch zwei Gleichungen berechnet, die eine exponentielle Glättung für sie separat anwenden. Wenn das geschätzte Niveau und der Trend zum Zeitpunkt t-1 Sind L t 1 bzw. T t-1, so ist die Prognose für Y t, die zum Zeitpunkt t-1 gemacht worden wäre, gleich L t-1 T t-1. Wenn der Istwert beobachtet wird, wird die aktualisierte Schätzung der Level wird rekursiv durch Interpolation zwischen Y t und seiner Prognose L t-1 T t-1 berechnet, wobei Gewichte von und 1 verwendet werden. Die Änderung des geschätzten Pegels, nämlich L t L t 1, kann als eine verrauschte Messung der Trend zur Zeit t Die aktualisierte Schätzung des Trends wird dann rekursiv durch Interpolation zwischen L berechnet T L t 1 und die vorherige Schätzung des Trends T t-1 unter Verwendung von Gewichten von und 1.Die Interpretation der Trend-Glättungskonstante ist analog zu der der Pegel-Glättungs-Konstante. Modelle mit kleinen Werten gehen davon aus, dass sich der Trend ändert Nur sehr langsam im Laufe der Zeit, während Modelle mit größeren davon ausgehen, dass es sich schneller ändert Ein Modell mit einem großen glaubt, dass die ferne Zukunft sehr unsicher ist, denn Fehler in der Trendschätzung werden bei der Prognose von mehr als einer Periode voraus Der Seite. Die Glättungskonstanten und können in der üblichen Weise durch Minimierung des mittleren quadratischen Fehlers der 1-Schritt-voraus-Prognosen geschätzt werden. Wenn dies in Statgraphics geschieht, ergeben sich die Schätzungen als 0 3048 und 0 008 Der sehr kleine Wert von Bedeutet, dass das Modell eine sehr geringe Veränderung im Trend von einer Periode zur nächsten einnimmt, so dass dieses Modell grundsätzlich versucht, einen langfristigen Trend abzuschätzen. Analog zu dem Begriff des Durchschnittsalters der Daten, die bei der Schätzung von t verwendet werden Die lokale Ebene der Serie, das Durchschnittsalter der Daten, die bei der Schätzung des lokalen Trends verwendet wird, ist proportional zu 1, wenn auch nicht genau gleich. In diesem Fall ergibt sich das 1 0 006 125 Dies ist eine sehr genaue Nummer Insofern als die Genauigkeit der Schätzung von isn t wirklich 3 Dezimalstellen, aber es ist von der gleichen allgemeinen Größenordnung wie die Stichprobengröße von 100, so dass dieses Modell durchschnittlich über ziemlich viel Geschichte bei der Schätzung der Trend Die Prognose Handlung ist Unten zeigt, dass das LES-Modell einen eher größeren lokalen Trend am Ende der Serie schätzt als der im SES-Trendmodell geschätzte konstante Trend. Auch der Schätzwert ist nahezu identisch mit dem, der durch die Anpassung des SES-Modells mit oder ohne Trend erhalten wird , So ist dies fast das gleiche model. Now, sehen diese aussehen wie vernünftige Prognosen für ein Modell, das soll einen lokalen Trend schätzen Wenn Sie Augapfel dieser Handlung, sieht es aus, als ob die lokale Tendenz hat sich nach unten am Ende der Serie Wh At ist passiert Die Parameter dieses Modells wurden durch die Minimierung der quadratischen Fehler von 1-Schritt-voraus Prognosen, nicht längerfristige Prognosen geschätzt, in welchem Fall der Trend macht nicht viel Unterschied Wenn alles, was Sie suchen, sind 1 - step-ahead-Fehler, sehen Sie nicht das größere Bild der Trends über 10 oder 20 Perioden Um dieses Modell mehr im Einklang mit unserer Augapfel-Extrapolation der Daten zu bekommen, können wir manuell die Trend-Glättung konstant so einstellen, dass es Verwendet eine kürzere Grundlinie für Trendschätzung Wenn wir z. B. wählen, um 0 1 zu setzen, dann ist das Durchschnittsalter der Daten, die bei der Schätzung des lokalen Trends verwendet werden, 10 Perioden, was bedeutet, dass wir den Trend über die letzten 20 Perioden oder so vermitteln Hier ist das, was die Prognose-Plot aussieht, wenn wir 0 1 setzen, während wir 0 3 halten. Das sieht intuitiv vernünftig für diese Serie aus, obwohl es wahrscheinlich gefährlich ist, diesen Trend mehr als 10 Perioden in der Zukunft zu extrapolieren. Was geht es um die Fehlerstatistik Hier ist Ein Modellvergleich f Oder die beiden oben gezeigten Modelle sowie drei SES-Modelle Der optimale Wert des SES-Modells beträgt etwa 0 3, aber mit 0 oder 0 2 ergeben sich ähnliche Ergebnisse mit etwas mehr oder weniger Ansprechverhalten. Eine Holt s lineare Exp-Glättung Mit alpha 0 3048 und beta 0 008. B Holt s lineare exp Glättung mit alpha 0 3 und beta 0 1. C Einfache exponentielle Glättung mit alpha 0 5. D Einfache exponentielle Glättung mit alpha 0 3. E Einfache exponentielle Glättung mit alpha 0 2.Die Statistiken sind fast identisch, so dass wir wirklich die Wahl auf der Basis von 1-Schritt-voraus Prognose Fehler innerhalb der Daten Probe Wir müssen auf andere Überlegungen zurückfallen Wenn wir stark glauben, dass es sinnvoll ist, die aktuelle Basis zu stützen Trend-Schätzung, was in den letzten 20 Perioden passiert ist, so können wir einen Fall für das LES-Modell mit 0 3 und 0 1 machen. Wenn wir agnostisch sein wollen, ob es einen lokalen Trend gibt, dann könnte eines der SES-Modelle Sei leichter zu erklären und würde auch mehr middl geben E-of-the-road Prognosen für die nächsten 5 oder 10 Perioden Zurück zum Seitenanfang. Welche Art der Trend-Extrapolation ist am besten horizontal oder linear Empirische Hinweise deuten darauf hin, dass, wenn die Daten bereits angepasst wurden, wenn nötig für die Inflation, dann Es kann unklug sein, kurzfristige lineare Trends sehr weit in die Zukunft zu extrapolieren Trends, die heute deutlich sichtbar sind, können aufgrund unterschiedlicher Ursachen wie Produktveralterung, verstärkte Konkurrenz und zyklische Abschwünge oder Aufschwünge in einer Branche aus diesem Grund einfacher exponentieller Fall sein Glättung führt oft zu einem besseren Out-of-Sample, als es sonst zu erwarten wäre, trotz seiner naiven horizontalen Trend-Extrapolation Dämpfte Trendmodifikationen des linearen exponentiellen Glättungsmodells werden auch in der Praxis häufig verwendet, um eine Note des Konservatismus in seine Trendprojektionen einzuführen. Der gedämpfte Trend LES-Modell kann als Spezialfall eines ARIMA-Modells implementiert werden, insbesondere ein ARIMA 1,1,2-Modell. Es ist möglich, Konfidenzintervalle zu berechnen Langfristige Prognosen, die durch exponentielle Glättungsmodelle erzeugt werden, indem sie sie als Sonderfälle von ARIMA-Modellen betrachten. Vorsicht nicht, dass alle Software die Konfidenzintervalle für diese Modelle korrekt berechnet. Die Breite der Konfidenzintervalle hängt von dem RMS-Fehler des Modells ab Von Glättung einfach oder linear iii der Wert s der Glättungskonstante s und iv die Anzahl der vorangegangenen Perioden, die Sie prognostizieren Im Allgemeinen breiten sich die Intervalle schneller aus, wenn sie im SES-Modell größer werden und sie breiten sich viel schneller aus, wenn linear und nicht einfach Glättung wird verwendet Dieses Thema wird im ARIMA-Modell-Abschnitt der Notizen weiter unten diskutiert. Zurück zum Seitenanfang.
Comments
Post a Comment