Skip to main content

Autoregressive Moving Average Series


Autoregressive Moving Average ARMA (p, q) Modelle für die Zeitreihenanalyse - Teil 3 Von Michael Halls-Moore am 7. September 2015 Dies ist der dritte und letzte Beitrag in der Mini-Serie für autoregressive Moving Average (ARMA) Modelle für Zeitreihen Analyse. Weve eingeführt Autoregressive Modelle und Moving Average Modelle in den beiden vorherigen Artikeln. Jetzt ist es Zeit, sie zu einem anspruchsvolleren Modell zu kombinieren. Letztendlich wird dies zu den ARIMA - und GARCH-Modellen führen, die es uns ermöglichen, die Rentabilität und die Volatilität der Prognosen vorherzusagen. Diese Modelle bilden die Grundlage für Handelssignale und Risikomanagementtechniken. Wenn Sie Teil 1 und Teil 2 gelesen haben, haben Sie gesehen, dass wir dazu neigen, ein Muster für unsere Analyse eines Zeitreihenmodells zu folgen. Ich wiederhole es kurz hier: Grundlagen - Warum interessieren wir uns für dieses bestimmte Modell Definition - Eine mathematische Definition, um Mehrdeutigkeit zu reduzieren. Correlogram - Plotten eines Beispielkorrelogramms, um ein Modellverhalten zu visualisieren. Simulation und Montage - Anpassung des Modells an Simulationen, um sicherzustellen, dass wir das Modell richtig verstanden haben. Echte Finanzdaten - Anwenden des Modells auf reale historische Vermögenspreise. Vorhersage - Prognostieren Sie nachfolgende Werte, um Handelssignale oder Filter aufzubauen. Um diesem Artikel zu folgen, ist es ratsam, einen Blick auf die früheren Artikel zur Zeitreihenanalyse zu werfen. Sie können alle hier gefunden werden. Bayesian Information Criterion Im Teil 1 dieser Artikel-Serie haben wir das Akaike Information Criterion (AIC) als Mittel zur Unterstützung der Wahl zwischen den einzelnen besten Zeitreihenmodellen betrachtet. Ein eng verwandtes Werkzeug ist das Bayesian Information Criterion (BIC). Im Wesentlichen hat es ein ähnliches Verhalten wie die AIC, dass es Modelle mit zu vielen Parametern bestraft. Dies kann zu Überbeanspruchungen führen. Der Unterschied zwischen der BIC und AIC ist, dass die BIC ist strenger mit seiner Bestrafung von zusätzlichen Parametern. Bayesian Information Criterion Wenn wir die Likelihood-Funktion für ein statistisches Modell mit k Parametern und L die Wahrscheinlichkeit maximieren. Dann ist das Bayessche Informationskriterium gegeben durch: wobei n die Anzahl der Datenpunkte in der Zeitreihe ist. Bei der Auswahl geeigneter ARMA (p, q) Modelle werden wir den AIC und den BIC verwenden. Ljung-Box Test In Teil 1 dieser Artikel-Serie Rajan erwähnt in der Disqus kommentiert, dass die Ljung-Box-Test war besser als mit dem Akaike Information Criterion des Bayesian Information Criterion bei der Entscheidung, ob ein ARMA-Modell war eine gute Passform zu einer Zeit Serie. Der Ljung-Box-Test ist ein klassischer Hypothesentest, der dazu dient, zu testen, ob sich ein Satz von Autokorrelationen eines eingebauten Zeitreihenmodells signifikant von Null unterscheidet. Der Test testet nicht jede einzelne Verzögerung nach Zufälligkeit, sondern testet die Zufälligkeit über eine Gruppe von Verzögerungen. Ljung-Box-Test Wir definieren die Nullhypothese als: Die Zeitreihendaten bei jeder Verzögerung sind i. i.d .. das heißt, die Korrelationen zwischen den Populationsreihenwerten sind Null. Wir definieren die alternative Hypothese als: Die Zeitreihendaten sind nicht i. i.d. Und besitzen serielle Korrelation. Wir berechnen die folgende Teststatistik. Q: Wenn n die Länge der Zeitreihenprobe ist, ist k die Stichprobe Autokorrelation bei der Verzögerung k und h die Anzahl der Verzögerungen unter dem Test. Die Entscheidungsregel, ob die Nullhypothese zurückgewiesen werden soll, besteht darin, zu überprüfen, ob Q gt chi2 für eine chi-quadrierte Verteilung mit h Freiheitsgraden am 100 (1-alpha) - ten Perzentil ist. Während die Details des Tests etwas kompliziert erscheinen können, können wir in der Tat R verwenden, um den Test für uns zu berechnen und das Verfahren etwas zu vereinfachen. Autogressive Moving Average (ARMA) Modelle der Ordnung p, q Nun, da wir über den BIC und den Ljung-Box-Test diskutierten, waren wir bereit, unser erstes gemischtes Modell, nämlich den autoregressiven Moving Average der Ordnung p, q oder ARMA (p, Q). Bisher haben wir autoregressive Prozesse und gleitende Durchschnittsprozesse betrachtet. Das frühere Modell betrachtet sein eigenes Verhalten in der Vergangenheit als Input für das Modell und als solche Versuche, Marktteilnehmer-Effekte, wie Impuls und Mittelwert-Reversion im Aktienhandel zu erfassen. Das letztere Modell wird verwendet, um Schock Informationen zu einer Serie zu charakterisieren, wie eine Überraschung Einkommen Ankündigung oder unerwartete Ereignis (wie die BP Deepwater Horizon Ölpest). Daher versucht ein ARMA-Modell, diese beiden Aspekte bei der Modellierung finanzieller Zeitreihen zu erfassen. Beachten Sie, dass ein ARMA-Modell nicht berücksichtigt Volatilität Clustering, eine wichtige empirische Phänomene von vielen finanziellen Zeitreihen. Es ist kein bedingt heteroszendierendes Modell. Dafür müssen wir auf die ARCH - und GARCH-Modelle warten. Definition Das ARMA-Modell (p, q) ist eine lineare Kombination zweier linearer Modelle und somit selbst noch linear: Autoregressives Moving Average Modell der Ordnung p, q Ein Zeitreihenmodell ist ein autoregressives gleitendes Durchschnittsmodell der Ordnung p, q . ARMA (p, q), wenn: Anfang xt alpha1 x alpha2 x ldots wt beta1 w beta2 w ldots betaq w end Wo ist weißes Rauschen mit E (wt) 0 und Varianz sigma2. Wenn wir den Backward Shift Operator betrachten. (Siehe vorhergehender Artikel) können wir das obige als Funktion theta und phi folgendermaßen umschreiben: Wir können einfach erkennen, dass wir durch die Einstellung von p neq 0 und q0 das AR (p) - Modell erhalten. Wenn wir p 0 und q neq 0 setzen, erhalten wir das MA (q) - Modell. Eines der wichtigsten Merkmale des ARMA-Modells ist, dass es sparsam und redundant in seinen Parametern ist. Das heißt, ein ARMA-Modell erfordert oft weniger Parameter als ein AR (p) - oder MA (q) - Modell alleine. Darüber hinaus, wenn wir die Gleichung in Bezug auf die BSO umschreiben, dann die theta und phi Polynome können manchmal gemeinsam einen gemeinsamen Faktor, so dass ein einfacheres Modell. Simulationen und Correlogramme Wie bei den autoregressiven und gleitenden Durchschnittsmodellen simulieren wir nun verschiedene ARMA-Serien und versuchen dann, ARMA-Modelle an diese Realisierungen anzupassen. Wir führen dies aus, weil wir sicherstellen wollen, dass wir das Anpassungsverfahren verstehen, einschließlich der Berechnung von Konfidenzintervallen für die Modelle sowie sicherzustellen, dass das Verfahren tatsächlich vernünftige Schätzungen für die ursprünglichen ARMA-Parameter wiederherstellt. In Teil 1 und Teil 2 haben wir manuell die AR - und MA-Serie konstruiert, indem wir N Abtastwerte aus einer Normalverteilung ziehen und dann das spezifische Zeitreihenmodell unter Verwendung von Verzögerungen dieser Abtastwerte herstellen. Allerdings gibt es einen einfacheren Weg, um AR-, MA-, ARMA - und sogar ARIMA-Daten zu simulieren, einfach durch die Verwendung der arima. sim-Methode in R. Wir beginnen mit dem einfachsten nicht-trivialen ARMA-Modell, nämlich dem ARMA (1,1 ) - Modell. Das heißt, ein autoregressives Modell der Ordnung eins kombiniert mit einem gleitenden Durchschnittsmodell der Ordnung eins. Ein solches Modell hat nur zwei Koeffizienten, alpha und beta, die die ersten Verzögerungen der Zeitreihe selbst und die schockweißen Rauschterme darstellen. Ein solches Modell ist gegeben durch: Wir müssen die Koeffizienten vor der Simulation angeben. Lets take alpha 0.5 und beta -0.5: Die Ausgabe ist wie folgt: Lets auch das Korrektogramm zeichnen: Wir können sehen, dass es keine signifikante Autokorrelation, die von einem ARMA (1,1) - Modell erwartet wird. Schließlich können wir versuchen, die Koeffizienten und deren Standardfehler mit Hilfe der Arimafunktion zu bestimmen: Wir können die Konfidenzintervalle für jeden Parameter mit Hilfe der Standardfehler berechnen: Die Konfidenzintervalle enthalten die wahren Parameterwerte für beide Fälle 95 Konfidenzintervalle sehr breit sind (eine Folge der hinreichend großen Standardfehler). Jetzt versuchen wir ein ARMA (2,2) Modell. Das heißt, ein AR (2) - Modell kombiniert mit einem MA (2) - Modell. Für dieses Modell müssen wir vier Parameter angeben: alpha1, alpha2, beta1 und beta2. Nehmen wir alpha1 0.5, alpha2-0.25 beta10.5 und beta2-0.3: Die Ausgabe unseres ARMA (2,2) - Modells ist wie folgt: Und die entsprechende autocorelation: Wir können nun versuchen, ein ARMA (2,2) - Modell an Die Daten: Wir können auch die Konfidenzintervalle für jeden Parameter berechnen: Beachten Sie, dass die Konfidenzintervalle für die Koeffizienten für die gleitende Durchschnittskomponente (beta1 und beta2) nicht tatsächlich den ursprünglichen Parameterwert enthalten. Dies beschreibt die Gefahr des Versuchens, Modelle an Daten anzupassen, auch wenn wir die wahren Parameterwerte kennen. Für Handelszwecke benötigen wir jedoch nur eine Vorhersagekraft, die den Zufall übertrifft und genügend Gewinn über die Transaktionskosten erzeugt, um rentabel zu sein auf lange Sicht. Nun, da wir einige Beispiele für simulierte ARMA-Modelle gesehen haben, brauchen wir Mechanismus für die Auswahl der Werte von p und q bei der Anpassung an die Modelle zu echten Finanzdaten. Auswahl des besten ARMA-Modells (p, q) Um zu bestimmen, welche Ordnung p, q des ARMA-Modells für eine Reihe geeignet ist, müssen wir die AIC (oder BIC) über eine Teilmenge von Werten für p, q und verwenden Dann den Ljung-Box-Test anwenden, um zu bestimmen, ob eine gute Passung für bestimmte Werte von p, q erzielt worden ist. Um diese Methode zu zeigen, werden wir zunächst einen speziellen ARMA (p, q) Prozess simulieren. Wir werden dann alle paarweisen Werte von p in und qin durchschleifen und die AIC berechnen. Wir wählen das Modell mit dem niedrigsten AIC aus und führen dann einen Ljung-Box-Test auf die Residuen durch, um festzustellen, ob wir eine gute Passform erreicht haben. Zunächst wird eine ARMA (3,2) - Serie simuliert: Wir werden nun ein Objekt final erstellen, um den besten Modell-Fit und den niedrigsten AIC-Wert zu speichern. Wir schleifen über die verschiedenen p, q-Kombinationen und verwenden das aktuelle Objekt, um die Anpassung eines ARMA (i, j) - Modells für die Schleifenvariablen i und j zu speichern. Wenn der aktuelle AIC kleiner als irgendein vorher berechneter AIC ist, setzen wir die letzte AIC auf diesen aktuellen Wert und wählen diese Reihenfolge. Nach Beendigung der Schleife haben wir die Reihenfolge der in final. order gespeicherten ARMA-Modelle, und die ARIMA (p, d, q) passen sich an (mit der integrierten d-Komponente auf 0 gesetzt), die als final. arma gespeichert ist , Ordnung und ARIMA-Koeffizienten: Wir können sehen, dass die ursprüngliche Ordnung des simulierten ARMA-Modells wiederhergestellt wurde, nämlich mit p3 und q2. Wir können das Corelogramm der Residuen des Modells darstellen, um zu sehen, ob sie wie eine Realisierung von diskreten weißen Rauschen (DWN) aussehen: Das Corelogramm sieht tatsächlich wie eine Realisierung von DWN aus. Schließlich führen wir den Ljung-Box-Test für 20 Verzögerungen durch, um dies zu bestätigen: Beachten Sie, dass der p-Wert größer als 0,05 ist, was besagt, dass die Residuen auf dem 95-Level unabhängig sind und somit ein ARMA-Modell (3,2) Gutes Modell passend. Offensichtlich sollte dies der Fall sein, da wir die Daten selbst simuliert haben. Dies ist jedoch genau das Verfahren, das wir verwenden werden, wenn wir ARMA (p, q) - Modelle im folgenden Abschnitt zum SampP500-Index passen. Finanzdaten Nachdem wir nun das Verfahren zur Auswahl des optimalen Zeitreihenmodells für eine simulierte Serie skizziert haben, ist es relativ einfach, diese auf Finanzdaten anzuwenden. Für dieses Beispiel wollen wir erneut den SampP500 US Equity Index wählen. Wir können die täglichen Schlusskurse unter Verwendung von quantmod herunterladen und dann den Protokoll-Rücklauf-Stream erzeugen: Mit dem AIC können Sie das gleiche Anpassungsverfahren wie für die oben beschriebene simulierte ARMA (3,2) - Reihe des SampP500 durchführen: Das am besten passende Modell Hat die Ordnung ARMA (3,3): Hier können die Residuen des angepassten Modells dem SampP500 log täglichen Retourenstrom zugewiesen werden: Beachten Sie, dass es einige signifikante Peaks gibt, vor allem bei höheren Lags. Dies deutet auf eine schlechte Passform hin. Wir können einen Ljung-Box-Test durchführen, um festzustellen, ob wir statistische Beweise dafür haben: Wie wir vermuteten, ist der p-Wert kleiner als 0,05 und als solche können wir nicht sagen, dass die Residuen eine Realisierung von diskreten weißen Rauschen sind. Daher gibt es eine zusätzliche Autokorrelation in den Residuen, die nicht durch das eingebaute ARMA (3,3) - Modell erklärt wird. Next Steps Wie wir in dieser Artikelreihe besprochen haben, haben wir in den SampP500-Serien, insbesondere in den Perioden 2007-2008, Hinweise auf bedingte Heterosedastizität (Volatilitäts-Clustering) gefunden. Wenn wir ein GARCH-Modell später in der Artikel-Serie verwenden, werden wir sehen, wie diese Autokorrelationen zu beseitigen. In der Praxis sind ARMA-Modelle nie generell gut für Log-Aktien-Renditen. Wir müssen die bedingte Heterosedastizität berücksichtigen und eine Kombination von ARIMA und GARCH verwenden. Der nächste Artikel wird ARIMA betrachten und zeigen, wie die integrierte Komponente unterscheidet sich von der ARMA-Modell, das wir in diesem Artikel betrachtet haben. Michael Hallen-Moore Mike ist der Gründer von QuantStart und hat in der quantitativen Finanzindustrie in den letzten fünf Jahren in erster Linie als Quant Entwickler und später als Quant Trader Beratung für Hedge-Fonds beteiligt. ARM (p, q) Modelle für die Zeitreihenanalyse - Teil 2 Von Michael Halls-Moore am 24. August 2015 Im Teil 1 betrachteten wir das autoregressive Modell der Ordnung p, auch als AR (p) - Modell bekannt. Wir führten es als eine Erweiterung des Zufallsmodells ein, um eine weitere serielle Korrelation in finanziellen Zeitreihen zu erläutern. Schließlich erkannten wir, dass es nicht genügend flexibel war, um alle Autokorrelationen in den Schlusskursen der Amazon Inc. (AMZN) und des SampP500 US Equity Index wirklich zu erfassen. Der Hauptgrund dafür ist, dass beide Vermögenswerte bedingt heteroskedastisch sind. Was bedeutet, dass sie nicht-stationär sind und Perioden variierender Varianz oder Volatilitäts-Clustering aufweisen, was von dem AR (p) - Modell nicht berücksichtigt wird. In künftigen Artikeln werden wir schließlich die Autoregressive Integrated Moving Average (ARIMA) Modelle sowie die bedingt heteroskedastischen Modelle der ARCH - und GARCH-Familien aufbauen. Diese Modelle werden uns unsere ersten realistischen Versuche zur Prognose von Vermögenspreisen bieten. In diesem Artikel werden wir jedoch die Moving Average der Ordnung q-Modell, bekannt als MA (q) einzuführen. Dies ist ein Teil des allgemeineren ARMA-Modells und als solches müssen wir es verstehen, bevor wir weitergehen. Ich empfehle Ihnen, lesen Sie die vorherigen Artikel in der Zeitreihe Analyse-Sammlung, wenn Sie dies nicht getan haben. Sie können alle hier gefunden werden. Moving Average (MA) Modelle der Ordnung q Begründung Ein Moving Average-Modell ähnelt einem autoregressiven Modell, mit der Ausnahme, dass es sich nicht um eine lineare Kombination aus vergangenen Zeitreihenwerten handelt, sondern um eine lineare Kombination der vergangenen weißen Rauschterme. Intuitiv bedeutet dies, dass das MA-Modell solche zufälligen weißen Rauschschocks direkt bei jedem aktuellen Wert des Modells sieht. Dies steht im Gegensatz zu einem AR (p) - Modell, wo die weißen Rauschschocks nur indirekt gesehen werden. Über Regression auf frühere Ausdrücke der Reihe. Ein wesentlicher Unterschied besteht darin, dass das MA-Modell nur die letzten q-Schocks für ein bestimmtes MA (q) - Modell sehen wird, während das AR (p) - Modell alle vorherigen Schocks berücksichtigt, wenn auch in einer abnehmend schwachen Weise. Definition Mathematisch ist das MA (q) ein lineares Regressionsmodell und ist ähnlich strukturiert nach AR (p): Moving Average Modell der Ordnung q Ein Zeitreihenmodell ist ein gleitendes Durchschnittsmodell der Ordnung q. MA (q), wenn: Anfang xt wt beta1 w ldots betaq w end Wo ist weißes Rauschen mit E (wt) 0 und Varianz sigma2. Wenn wir den Backward Shift Operator betrachten. (Siehe vorhergehender Artikel), so können wir die obigen Funktionen als Funktion phi folgendermaßen umschreiben: begin xt (1 beta1 beta2 2 ldots betaq q) wt phiq () wt end Wir werden in späteren Artikeln die phi-Funktion nutzen. Eigenschaften der zweiten Ordnung Wie bei AR (p) ist der Mittelwert eines MA (q) - Verfahrens gleich Null. Dies ist leicht zu sehen, da der Mittelwert einfach eine Summe von Mitteln von weißen Rauschtermen ist, die alle selbst Null sind. Anfang Text enspace sigma2w (1 beta21 ldots beta2q) Ende Text enspace rhok links 1 Text enspace k 0 Summe beta beta / sumq beta2i Text enspace k 1, ldots, q 0 Text enspace k gt q Ende rechts. Wo beta0 1. Wurden jetzt einige simulierte Daten generieren und verwenden, um correlograms zu erstellen. Dies wird die obige Formel für rhok etwas konkreter machen. Simulationen und Correlogramme MA (1) Beginnen wir mit einem MA (1) - Prozess. Wenn wir beta1 0.6 setzen, erhalten wir das folgende Modell: Wie bei den AR (p) - Modellen im vorherigen Artikel können wir R verwenden, um eine solche Reihe zu simulieren und dann das Korrelogramm zu zeichnen. Da wir in der vorigen Zeitreihenanalyse eine Reihe von Übungen durchführen, werde ich den R-Code vollständig schreiben, anstatt ihn aufzuteilen: Die Ausgabe ist wie folgt: Wie wir oben in der Formel für rhok gesehen haben , Für k gt q sollten alle Autokorrelationen Null sein. Da q 1 ist, sollten wir einen signifikanten Peak bei k1 und dann danach signifikante Peaks sehen. Aufgrund der Stichprobenvorhersage sollten wir jedoch erwarten, dass 5 (marginal) signifikante Peaks auf einer Stichproben-Autokorrelationskurve zu sehen sind. Genau das zeigt uns das Korrelogramm. Wir haben einen signifikanten Peak bei k1 und dann unbedeutende Peaks für k gt 1, mit Ausnahme von k4, wo wir einen marginell signifikanten Peak haben. Tatsächlich ist dies eine nützliche Möglichkeit, zu sehen, ob ein MA (q) - Modell geeignet ist. Durch Betrachten des Korrelogramms einer bestimmten Reihe können wir sehen, wie viele sequenzielle Nicht-Null-Verzögerungen existieren. Wenn q solche Lags existieren, dann können wir legitimerweise versuchen, ein MA (q) - Modell an eine bestimmte Serie anzupassen. Da wir Beweise aus unseren simulierten Daten eines MA (1) - Prozesses haben, sollten wir nun versuchen, ein MA (1) - Modell an unsere simulierten Daten anzupassen. Leider gibt es keinen äquivalenten ma Befehl zum autoregressiven Modell ar Befehl in R. Stattdessen müssen wir den allgemeineren arima Befehl benutzen und die autoregressiven und integrierten Komponenten auf Null setzen. Dazu erstellen wir einen 3-Vektor und setzen die ersten beiden Komponenten (die autogressiven und integrierten Parameter) auf Null: Wir erhalten eine nützliche Ausgabe aus dem Befehl arima. Erstens können wir sehen, dass der Parameter als Hut 0.602 geschätzt wurde, der sehr nahe am wahren Wert von beta1 0,6 liegt. Zweitens sind die Standardfehler bereits für uns berechnet, so dass es einfach ist, Konfidenzintervalle zu berechnen. Drittens erhalten wir eine geschätzte Varianz, Log-Likelihood und Akaike Information Criterion (notwendig für Modellvergleich). Der Hauptunterschied zwischen arima und ar ist, dass arima einen Intercept-Term schätzt, da er den Mittelwert der Serie nicht subtrahiert. Daher müssen wir vorsichtig sein, wenn wir Vorhersagen mit dem Befehl arima durchführen. Nun wieder auf diesen Punkt später. Wie ein schneller Check wurden, um Konfidenzintervalle für Hut zu berechnen: Wir können sehen, dass die 95 Konfidenzintervall den wahren Parameterwert von beta1 0,6 enthält und so können wir beurteilen, das Modell eine gute Passform. Offensichtlich sollte das erwartet werden, da wir die Daten an erster Stelle simuliert haben. Wie ändern sich die Dinge, wenn wir das Vorzeichen von beta1 auf -0.6 ändern, können wir die gleiche Analyse durchführen: Die Ausgabe ist wie folgt: Wir können sehen, dass wir bei k1 einen signifikanten Wert haben Peak im Korrelogramm, mit der Ausnahme, dass es eine negative Korrelation zeigt, wie sie von einem MA (1) - Modell mit negativem ersten Koeffizienten erwartet wird. Wiederum sind alle Peaks jenseits von k1 unbedeutend. Ermöglicht ein MA (1) - Modell und schätzen den Parameter: Hut -0.730, was eine kleine Unterbewertung von beta1 -0.6 ist. Schließlich lässt sich das Konfidenzintervall berechnen: Wir können sehen, dass der wahre Parameterwert von beta1-0.6 innerhalb des 95 Konfidenzintervalls enthalten ist, was uns den Beweis für ein gutes Modell passt. MA (3) Lassen Sie sich durch das gleiche Verfahren für ein MA (3) - Prozess. Diesmal sollten signifikante Peaks bei k in und unbedeutende Peaks für kgt 3 erwartet werden. Wir verwenden die folgenden Koeffizienten: beta1 0,6, beta2 0,4 und beta3 0,2. Wir können einen MA (3) Prozess von diesem Modell simulieren. Ive erhöhte die Anzahl der zufälligen Proben auf 1000 in dieser Simulation, was es leichter macht, die wahre Autokorrelationsstruktur zu sehen, und zwar auf Kosten der Herstellung der Originalreihe schwerer zu interpretieren: Die Ausgabe ist wie folgt: Wie erwartet sind die ersten drei Spitzen signifikant . Jedoch ist so das vierte. Aber wir können legitim vorschlagen, dass dies auf eine Stichprobe zurückzuführen ist, da wir erwarten, dass 5 der Peaks signifikant über kq hinausgehen. Nun kann ein MA (3) - Modell an die Daten angepasst werden, um die Parameter zu probieren und zu schätzen: Die Schätzwerte Hut 0,544, Hut 0,345 und Hut 0,228 liegen nahe bei den wahren Werten von beta10,6, beta20,4 bzw. beta30,3. Wir können auch Konfidenzintervalle mit den jeweiligen Standardfehlern erzeugen: In jedem Fall enthalten die 95 Konfidenzintervalle den wahren Parameterwert und wir können schließen, dass wir, wie zu erwarten, gut mit unserem MA (3) - Modell übereinstimmen. Finanzdaten In Teil 1 betrachteten wir Amazon Inc. (AMZN) und den SampP500 US Equity Index. Wir passten das AR (p) - Modell an beide an und fanden, dass das Modell nicht in der Lage war, die Komplexität der seriellen Korrelation effektiv zu erfassen, vor allem im Guss des SampP500, wo Langzeitgedächtniseffekte zu sein scheinen. Ich wont plot die Diagramme wieder für die Preise und Autokorrelation, statt Ill weisen Sie auf die vorherige Post. Amazon Inc. (AMZN) Beginnen wir mit dem Versuch, eine Auswahl von MA (q) - Modellen an AMZN, nämlich mit q in passen. Wie in Teil 1, verwenden Sie quantmod, um die täglichen Preise für AMZN herunterzuladen und sie dann in ein Protokoll umzuwandeln, um Strom von Schlusskursen zurückzugeben: Jetzt können wir den Befehl arima verwenden, um MA (1), MA zu passen (2) und MA (3) - Modellen und schätzen dann die Parameter von jedem. Für MA (1) haben wir: Wir können die Residuen der täglichen Logarithmen und des angepassten Modells darstellen: Beachten Sie, dass wir einige signifikante Peaks bei den Lags k2, k11, k16 und k18 haben, was anzeigt, dass das MA (1) - Modell ist Unwahrscheinlich, dass eine gute Passform für das Verhalten der AMZN-Log-Rückkehr, da dies nicht aussehen wie eine Verwirklichung von weißem Rauschen. Lets try ein MA (2) - Modell: Beide Schätzungen für die Beta-Koeffizienten sind negativ. Wir können die Residuen wieder zeichnen: Wir können sehen, dass es fast Null Autokorrelation in den ersten paar Verzögerungen. Allerdings haben wir fünf marginale signifikante Peaks bei den Verzögerungen k12, k16, k19, k25 und k27. Dies ist naheliegend, dass das MA (2) - Modell viel von der Autokorrelation erfasst, aber nicht alle Langzeitspeicher-Effekte. Wie sieht es mit einem MA (3) - Modell aus? Wiederum können die Residuen geplottet werden: Das MA (3) Residualplot sieht fast identisch mit dem MA (2) - Modell aus. Dies ist nicht verwunderlich, wie das Hinzufügen eines neuen Parameters zu einem Modell, scheinbar erklärt hat viel von den Korrelationen bei kürzeren Verzögerungen, aber das hat nicht viel Einfluss auf die längerfristigen Verzögerungen. Alle diese Beweise deuten darauf hin, dass ein MA (q) - Modell ist unwahrscheinlich, dass es nützlich sein, zu erklären, alle der seriellen Korrelation in Isolation. Zumindest für AMZN. SampP500 Wenn Sie sich erinnern, in Teil 1 sahen wir, dass die erste Reihenfolge differenzierte tägliche Log Rückkehr Struktur des SampP500 besaß viele signifikante Peaks bei verschiedenen Lags, sowohl kurz als auch lang. Dies zeigte sowohl die bedingte Heteroskedastizität (d. H. Die Volatilitäts-Clusterbildung) als auch die Langzeitspeicher-Effekte. Es führte zu dem Schluss, dass das AR (p) - Modell nicht ausreicht, um die gesamte vorhandene Autokorrelation zu erfassen. Wie wir oben gesehen haben, reicht das MA (q) - Modell nicht aus, um zusätzliche Serienkorrelationen in den Resten des eingebauten Modells auf die differenzierten täglichen Log-Preisreihen erster Ordnung zu erfassen. Wir werden nun versuchen, das MA (q) - Modell an den SampP500 anzupassen. Man könnte fragen, warum wir dies tun, wenn wir wissen, dass es unwahrscheinlich, dass eine gute Passform ist. Das ist eine gute Frage. Die Antwort ist, dass wir genau sehen müssen, wie es nicht eine gute Passform ist, denn dies ist der ultimative Prozess, dem wir folgen werden, wenn wir auf sehr viel anspruchsvollere Modelle stoßen, die möglicherweise schwerer zu interpretieren sind. Lets beginnen mit dem Erhalten der Daten und wandeln sie in eine erste Reihe differenzierte Reihe von logarithmisch umgewandelten täglichen Schlusskurse wie im vorherigen Artikel: Wir werden jetzt ein MA (1), MA (2) und MA (3) - Modell zu passen Die Serie, wie wir oben für AMZN. Beginnen wir mit MA (1): Machen wir eine Auftragung der Residuen dieses angepassten Modells: Der erste signifikante Peak tritt bei k2 auf, aber es gibt viel mehr bei k in. Dies ist eindeutig keine Verwirklichung von weißem Rauschen und deshalb müssen wir das MA (1) - Modell als eine für den SampP500 geeignete Potenz ablehnen. (2) Wiederum lassen sich die Residuen dieses angepassten MA (2) - Modells machen: Während der Peak bei k2 verschwunden ist (wie wir es erwarten), bleiben wir mit den signifikanten Peaks bei Viele längere Verzögerungen in den Resten. Noch einmal, finden wir das MA (2) - Modell ist nicht eine gute Passform. Für das MA (3) - Modell ist zu erwarten, dass bei k3 weniger serielle Korrelation als bei der MA (2) zu sehen ist, doch sollten wir auch hier keine Reduzierung weiterer Verzögerungen erwarten. Schließlich lässt sich eine Auftragung der Residuen dieses angepassten MA (3) - Modells machen: Genau das sehen wir im Korrelogramm der Residuen. Daher ist die MA (3), wie bei den anderen Modellen oben, nicht gut für den SampP500 geeignet. Die nächsten Schritte Weve untersuchte nun zwei große Zeitreihenmodelle im Detail, nämlich das autogressive Modell der Ordnung p, AR (p) und dann den Moving Average der Ordnung q, MA (q). Wir haben gesehen, dass sie beide in der Lage sind, einige der Autokorrelation in den Resten der ersten Ordnung differenzierte tägliche Log-Preise von Aktien und Indizes weg zu erklären, aber Volatilitäts-Clustering und Lang-Speicher-Effekte bestehen. Es ist endlich Zeit, unsere Aufmerksamkeit auf die Kombination dieser beiden Modelle, nämlich der Autoregressive Moving Average der Ordnung p, q, ARMA (p, q) zu lenken, um zu sehen, ob es die Situation weiter verbessern wird. Allerdings müssen wir warten, bis der nächste Artikel für eine vollständige Diskussion Michael Halls-Moore Mike ist der Gründer von QuantStart und hat in der quantitativen Finanzindustrie für die letzten fünf Jahre, in erster Linie als Quant-Entwickler und später als Quant Händler-Beratung für Hedgefonds. RIMA steht für Autoregressive Integrated Moving Average Modelle. Univariate (Einzelvektor) ARIMA ist eine Prognosemethode, die die zukünftigen Werte einer Serie, die vollständig auf ihrer eigenen Trägheit basiert, projiziert. Seine Hauptanwendung liegt im Bereich der kurzfristigen Prognose mit mindestens 40 historischen Datenpunkten. Es funktioniert am besten, wenn Ihre Daten eine stabile oder konsistente Muster im Laufe der Zeit mit einem Minimum an Ausreißern zeigt. Manchmal nennt man Box-Jenkins (nach den ursprünglichen Autoren), ARIMA ist in der Regel überlegen exponentielle Glättung Techniken, wenn die Daten relativ lange und die Korrelation zwischen vergangenen Beobachtungen ist stabil. Wenn die Daten kurz oder stark flüchtig sind, kann eine gewisse Glättungsmethode besser ablaufen. Wenn Sie nicht über mindestens 38 Datenpunkte verfügen, sollten Sie eine andere Methode als ARIMA betrachten. Der erste Schritt bei der Anwendung der ARIMA-Methodik ist die Überprüfung der Stationarität. Stationarität impliziert, dass die Reihe auf einem ziemlich konstanten Niveau über Zeit bleibt. Wenn ein Trend besteht, wie in den meisten wirtschaftlichen oder geschäftlichen Anwendungen, dann sind Ihre Daten nicht stationär. Die Daten sollten auch eine konstante Varianz in ihren Schwankungen im Laufe der Zeit zeigen. Dies ist leicht zu sehen mit einer Serie, die stark saisonal und wächst mit einer schnelleren Rate. In einem solchen Fall werden die Höhen und Tiefen der Saisonalität im Laufe der Zeit dramatischer. Ohne dass diese Stationaritätsbedingungen erfüllt sind, können viele der mit dem Prozess verbundenen Berechnungen nicht berechnet werden. Wenn eine grafische Darstellung der Daten Nichtstationarität anzeigt, dann sollten Sie die Serie unterscheiden. Die Differenzierung ist eine hervorragende Möglichkeit, eine nichtstationäre Serie in eine stationäre zu transformieren. Dies geschieht durch Subtrahieren der Beobachtung in der aktuellen Periode von der vorherigen. Wenn diese Transformation nur einmal zu einer Reihe erfolgt, sagen Sie, dass die Daten zuerst unterschieden wurden. Dieser Prozess im Wesentlichen eliminiert den Trend, wenn Ihre Serie wächst mit einer ziemlich konstanten Rate. Wenn es mit steigender Rate wächst, können Sie das gleiche Verfahren anwenden und die Daten erneut differenzieren. Ihre Daten würden dann zweite differenziert werden. Autokorrelationen sind Zahlenwerte, die angeben, wie sich eine Datenreihe mit der Zeit auf sich bezieht. Genauer gesagt misst es, wie stark Datenwerte bei einer bestimmten Anzahl von Perioden auseinander über die Zeit miteinander korreliert werden. Die Anzahl der Perioden wird in der Regel als Verzögerung bezeichnet. Zum Beispiel misst eine Autokorrelation bei Verzögerung 1, wie die Werte 1 Periode auseinander in der Reihe miteinander korreliert sind. Eine Autokorrelation bei Verzögerung 2 misst, wie die Daten, die zwei Perioden voneinander getrennt sind, über die gesamte Reihe miteinander korrelieren. Autokorrelationen können im Bereich von 1 bis -1 liegen. Ein Wert nahe 1 gibt eine hohe positive Korrelation an, während ein Wert nahe -1 impliziert eine hohe negative Korrelation. Diese Maßnahmen werden meist durch grafische Darstellungen, sogenannte Korrelagramme, ausgewertet. Ein Korrelationsdiagramm zeigt die Autokorrelationswerte für eine gegebene Reihe bei unterschiedlichen Verzögerungen. Dies wird als Autokorrelationsfunktion bezeichnet und ist bei der ARIMA-Methode sehr wichtig. Die ARIMA-Methodik versucht, die Bewegungen in einer stationären Zeitreihe als Funktion der so genannten autoregressiven und gleitenden Durchschnittsparameter zu beschreiben. Diese werden als AR-Parameter (autoregessiv) und MA-Parameter (gleitende Mittelwerte) bezeichnet. Ein AR-Modell mit nur einem Parameter kann als geschrieben werden. X (t) A (1) X (t-1) E (t) wobei X (t) Zeitreihen A (1) der autoregressive Parameter der Ordnung 1 X (t-1) (T) der Fehlerterm des Modells Dies bedeutet einfach, daß jeder gegebene Wert X (t) durch eine Funktion seines vorherigen Wertes X (t-1) plus einen unerklärlichen Zufallsfehler E (t) erklärt werden kann. Wenn der geschätzte Wert von A (1) 0,30 betrug, dann wäre der aktuelle Wert der Reihe mit 30 seines vorherigen Wertes 1 verknüpft. Natürlich könnte die Serie auf mehr als nur einen vergangenen Wert bezogen werden. Zum Beispiel ist X (t) A (1) X (t-1) A (2) X (t-2) E (t) Dies zeigt an, dass der aktuelle Wert der Reihe eine Kombination der beiden unmittelbar vorhergehenden Werte ist, X (t-1) und X (t-2) zuzüglich eines Zufallsfehlers E (t). Unser Modell ist nun ein autoregressives Modell der Ordnung 2. Moving Average Models: Eine zweite Art von Box-Jenkins-Modell wird als gleitendes Durchschnittsmodell bezeichnet. Obwohl diese Modelle dem AR-Modell sehr ähnlich sind, ist das Konzept dahinter ganz anders. Bewegliche Durchschnittsparameter beziehen sich auf das, was in der Periode t stattfindet, nur auf die zufälligen Fehler, die in vergangenen Zeitperioden aufgetreten sind, dh E (t-1), E (t-2) usw. anstatt auf X (t-1), X T-2), (Xt-3) wie in den autoregressiven Ansätzen. Ein gleitendes Durchschnittsmodell mit einem MA-Begriff kann wie folgt geschrieben werden. X (t) - B (1) E (t-1) E (t) Der Begriff B (1) wird als MA der Ordnung 1 bezeichnet. Das negative Vorzeichen vor dem Parameter wird nur für Konventionen verwendet und in der Regel ausgedruckt Automatisch von den meisten Computerprogrammen. Das obige Modell sagt einfach, dass jeder gegebene Wert von X (t) direkt nur mit dem Zufallsfehler in der vorherigen Periode E (t-1) und mit dem aktuellen Fehlerterm E (t) zusammenhängt. Wie im Fall von autoregressiven Modellen können die gleitenden Durchschnittsmodelle auf übergeordnete Strukturen mit unterschiedlichen Kombinationen und gleitenden mittleren Längen erweitert werden. Die ARIMA-Methodik erlaubt es auch, Modelle zu erstellen, die sowohl autoregressive als auch gleitende Durchschnittsparameter zusammenführen. Diese Modelle werden oft als gemischte Modelle bezeichnet. Obwohl dies für eine kompliziertere Prognose-Tool macht, kann die Struktur tatsächlich simulieren die Serie besser und produzieren eine genauere Prognose. Pure Modelle implizieren, dass die Struktur nur aus AR oder MA-Parameter besteht - nicht beides. Die Modelle, die von diesem Ansatz entwickelt werden, werden in der Regel als ARIMA-Modelle bezeichnet, da sie eine Kombination aus autoregressiver (AR), Integration (I) verwenden, die sich auf den umgekehrten Prozess der Differenzierung bezieht, um die Prognose zu erzeugen. Ein ARIMA-Modell wird üblicherweise als ARIMA (p, d, q) angegeben. Dies ist die Reihenfolge der autoregressiven Komponenten (p), der Anzahl der differenzierenden Operatoren (d) und der höchsten Ordnung des gleitenden Mittelwerts. Beispielsweise bedeutet ARIMA (2,1,1), dass Sie ein autoregressives Modell zweiter Ordnung mit einer gleitenden mittleren Komponente erster Ordnung haben, deren Serie einmal differenziert wurde, um die Stationarität zu induzieren. Auswahl der richtigen Spezifikation: Das Hauptproblem in der klassischen Box-Jenkins versucht zu entscheiden, welche ARIMA-Spezifikation zu verwenden - i. e. Wie viele AR - und / oder MA-Parameter eingeschlossen werden sollen. Dies ist, was viel von Box-Jenkings 1976 dem Identifikationsprozeß gewidmet wurde. Es hing von der graphischen und numerischen Auswertung der Stichprobenautokorrelation und der partiellen Autokorrelationsfunktionen ab. Nun, für Ihre grundlegenden Modelle, ist die Aufgabe nicht allzu schwierig. Jeder hat Autokorrelationsfunktionen, die eine bestimmte Weise aussehen. Allerdings, wenn Sie gehen in der Komplexität, die Muster sind nicht so leicht zu erkennen. Um es schwieriger zu machen, stellen Ihre Daten nur eine Probe des zugrundeliegenden Prozesses dar. Das bedeutet, dass Stichprobenfehler (Ausreißer, Messfehler etc.) den theoretischen Identifikationsprozess verzerren können. Daher ist die traditionelle ARIMA-Modellierung eher eine Kunst als eine Wissenschaft.2.1 Gleitende Durchschnittsmodelle (MA-Modelle) Zeitreihenmodelle, die als ARIMA-Modelle bekannt sind, können autoregressive Begriffe und / oder gleitende Durchschnittsterme enthalten. In Woche 1 erlernten wir einen autoregressiven Term in einem Zeitreihenmodell für die Variable x t ist ein verzögerter Wert von x t. Beispielsweise ist ein autoregressiver Term der Verzögerung 1 x t-1 (multipliziert mit einem Koeffizienten). Diese Lektion definiert gleitende Durchschnittsterme. Ein gleitender Durchschnittsterm in einem Zeitreihenmodell ist ein vergangener Fehler (multipliziert mit einem Koeffizienten). Es sei n (0, sigma2w) überschritten, was bedeutet, daß die wt identisch unabhängig voneinander verteilt sind, jeweils mit einer Normalverteilung mit dem Mittelwert 0 und der gleichen Varianz. Das durch MA (1) bezeichnete gleitende Durchschnittsmodell der 1. Ordnung ist (xt mu wt theta1w) Das durch MA (2) bezeichnete gleitende Durchschnittsmodell der zweiten Ordnung ist (xt mu wt theta1w theta2w) Das gleitende Mittelmodell der q-ten Ordnung , Mit MA (q) bezeichnet, ist (xt mu wt theta1w theta2w dots thetaqw) Hinweis. Viele Lehrbücher und Softwareprogramme definieren das Modell mit negativen Vorzeichen vor den Begriffen. Dies ändert nicht die allgemeinen theoretischen Eigenschaften des Modells, obwohl es die algebraischen Zeichen der geschätzten Koeffizientenwerte und (nicht quadrierten) Ausdrücke in Formeln für ACFs und Abweichungen umwandelt. Sie müssen Ihre Software überprüfen, um zu überprüfen, ob negative oder positive Vorzeichen verwendet worden sind, um das geschätzte Modell korrekt zu schreiben. R verwendet positive Vorzeichen in seinem zugrunde liegenden Modell, wie wir hier tun. Theoretische Eigenschaften einer Zeitreihe mit einem MA (1) Modell Beachten Sie, dass der einzige Wert ungleich Null im theoretischen ACF für Verzögerung 1 ist. Alle anderen Autokorrelationen sind 0. Somit ist ein Proben-ACF mit einer signifikanten Autokorrelation nur bei Verzögerung 1 ein Indikator für ein mögliches MA (1) - Modell. Für interessierte Studierende, Beweise dieser Eigenschaften sind ein Anhang zu diesem Handout. Beispiel 1 Angenommen, dass ein MA (1) - Modell x t 10 w t .7 w t-1 ist. Wobei (wt overset N (0,1)). Somit ist der Koeffizient 1 0,7. Die theoretische ACF wird durch eine Plot dieser ACF folgt folgt. Die graphische Darstellung ist die theoretische ACF für eine MA (1) mit 1 0,7. In der Praxis liefert eine Probe gewöhnlich ein solches klares Muster. Unter Verwendung von R simulierten wir n 100 Abtastwerte unter Verwendung des Modells x t 10 w t .7 w t-1, wobei w t iid N (0,1) war. Für diese Simulation folgt ein Zeitreihen-Diagramm der Probendaten. Wir können nicht viel von dieser Handlung erzählen. Die Proben-ACF für die simulierten Daten folgt. Wir sehen eine Spitze bei Verzögerung 1, gefolgt von im Allgemeinen nicht signifikanten Werten für Verzögerungen nach 1. Es ist zu beachten, dass das Beispiel-ACF nicht mit dem theoretischen Muster des zugrunde liegenden MA (1) übereinstimmt, was bedeutet, dass alle Autokorrelationen für Verzögerungen nach 1 0 sein werden Eine andere Probe hätte eine geringfügig unterschiedliche Probe ACF wie unten gezeigt, hätte aber wahrscheinlich die gleichen breiten Merkmale. Theroretische Eigenschaften einer Zeitreihe mit einem MA (2) - Modell Für das MA (2) - Modell sind die theoretischen Eigenschaften die folgenden: Die einzigen Werte ungleich Null im theoretischen ACF sind für die Lags 1 und 2. Autokorrelationen für höhere Lags sind 0 , So zeigt ein Beispiel-ACF mit signifikanten Autokorrelationen bei Lags 1 und 2, aber nicht signifikante Autokorrelationen für höhere Lags ein mögliches MA (2) - Modell. Iid N (0,1). Die Koeffizienten betragen 1 0,5 und 2 0,3. Da es sich hierbei um ein MA (2) handelt, wird der theoretische ACF nur bei den Verzögerungen 1 und 2 Werte ungleich Null aufweisen. Werte der beiden Nicht-Autokorrelationen sind A-Kurve des theoretischen ACF. Wie fast immer der Fall ist, verhalten sich Musterdaten nicht ganz so perfekt wie die Theorie. Wir simulierten n 150 Beispielwerte für das Modell x t 10 w t .5 w t-1 .3 w t-2. Wobei wt iid N (0,1) ist. Die Zeitreihenfolge der Daten folgt. Wie beim Zeitreihenplot für die MA (1) Beispieldaten können Sie nicht viel davon erzählen. Die Proben-ACF für die simulierten Daten folgt. Das Muster ist typisch für Situationen, in denen ein MA (2) - Modell nützlich sein kann. Es gibt zwei statistisch signifikante Spikes bei Lags 1 und 2, gefolgt von nicht signifikanten Werten für andere Lags. Beachten Sie, dass aufgrund des Stichprobenfehlers das Muster ACF nicht genau dem theoretischen Muster entsprach. ACF für allgemeine MA (q) - Modelle Eine Eigenschaft von MA (q) - Modellen besteht im Allgemeinen darin, dass Autokorrelationen ungleich Null für die ersten q-Lags und Autokorrelationen 0 für alle Lags gt q existieren. Nicht-Eindeutigkeit der Verbindung zwischen Werten von 1 und (rho1) in MA (1) Modell. Im MA (1) - Modell für einen Wert von 1. Die reziproke 1/1 gibt den gleichen Wert für Als Beispiel, verwenden Sie 0.5 für 1. Und dann 1 / (0,5) 2 für 1 verwenden. Youll erhalten (rho1) 0,4 in beiden Fällen. Um eine theoretische Einschränkung als Invertibilität zu befriedigen. Wir beschränken MA (1) - Modelle auf Werte mit einem Absolutwert von weniger als 1. In dem gerade angegebenen Beispiel ist 1 0,5 ein zulässiger Parameterwert, während 1 1 / 0,5 2 nicht. Invertibilität von MA-Modellen Ein MA-Modell soll invertierbar sein, wenn es algebraisch äquivalent zu einem konvergierenden unendlichen Ordnungs-AR-Modell ist. Durch Konvergenz meinen wir, dass die AR-Koeffizienten auf 0 sinken, wenn wir in der Zeit zurückgehen. Invertibilität ist eine Einschränkung, die in Zeitreihensoftware programmiert ist, die verwendet wird, um die Koeffizienten von Modellen mit MA-Begriffen abzuschätzen. Sein nicht etwas, das wir in der Datenanalyse überprüfen. Zusätzliche Informationen über die Invertibilitätsbeschränkung für MA (1) - Modelle finden Sie im Anhang. Fortgeschrittene Theorie Anmerkung. Für ein MA (q) - Modell mit einem angegebenen ACF gibt es nur ein invertierbares Modell. Die notwendige Bedingung für die Invertierbarkeit ist, daß die Koeffizienten solche Werte haben, daß die Gleichung 1- 1 y-. - q y q 0 hat Lösungen für y, die außerhalb des Einheitskreises liegen. R-Code für die Beispiele In Beispiel 1 wurde der theoretische ACF des Modells x t 10 w t aufgetragen. 7w t-1. Und dann n 150 Werte aus diesem Modell simuliert und die Abtastzeitreihen und die Abtast-ACF für die simulierten Daten aufgetragen. Die R-Befehle, die verwendet wurden, um den theoretischen ACF aufzuzeichnen, waren: acfma1ARMAacf (mac (0,7), lag. max10) 10 Verzögerungen von ACF für MA (1) mit theta1 0,7 lags0: 10 erzeugt eine Variable namens lags, die im Bereich von 0 bis 10 liegt (H0) fügt dem Diagramm eine horizontale Achse hinzu Der erste Befehl bestimmt den ACF und speichert ihn in einem Objekt Genannt acfma1 (unsere Wahl des Namens). Der Plotbefehl (der dritte Befehl) verläuft gegen die ACF-Werte für die Verzögerungen 1 bis 10. Der ylab-Parameter bezeichnet die y-Achse und der Hauptparameter einen Titel auf dem Plot. Um die Zahlenwerte der ACF zu sehen, benutzen Sie einfach den Befehl acfma1. Die Simulation und Diagramme wurden mit den folgenden Befehlen durchgeführt. (N150, list (mac (0.7))) Simuliert n 150 Werte aus MA (1) xxc10 addiert 10, um Mittelwert 10. Simulationsvorgaben bedeuten 0. Plot (x, typeb, mainSimulated MA (1) Acf (x, xlimc (1,10), mainACF für simulierte Probendaten) In Beispiel 2 wurde der theoretische ACF des Modells xt 10 wt. 5 w t-1 .3 w t-2 aufgetragen. Und dann n 150 Werte aus diesem Modell simuliert und die Abtastzeitreihen und die Abtast-ACF für die simulierten Daten aufgetragen. Die verwendeten R-Befehle waren acfma2ARMAacf (mac (0,5,0,3), lag. max10) acfma2 lags0: 10 Plot (lags, acfma2, xlimc (1,10), ylabr, typh, main ACF für MA (2) mit theta1 0,5, (X, x) (x, x) (x, x, x, y) (1) Für interessierte Studierende sind hier Beweise für die theoretischen Eigenschaften des MA (1) - Modells. Variante: (Text (xt) Text (mu wt theta1 w) 0 Text (wt) Text (theta1w) sigma2w theta21sigma2w (1theta21) sigma2w) Wenn h 1 der vorhergehende Ausdruck 1 w 2. Für irgendeinen h 2 ist der vorhergehende Ausdruck 0 Der Grund dafür ist, dass, durch Definition der Unabhängigkeit der wt. E (w k w j) 0 für beliebige k j. Da w w die Mittelwerte 0, E (w j w j) E (w j 2) w 2 haben. Für eine Zeitreihe, Wenden Sie dieses Ergebnis an, um den oben angegebenen ACF zu erhalten. Ein invertierbares MA-Modell ist eines, das als unendliches Ordnungs-AR-Modell geschrieben werden kann, das konvergiert, so daß die AR-Koeffizienten gegen 0 konvergieren, wenn wir unendlich zurück in der Zeit bewegen. Gut zeigen Invertibilität für die MA (1) - Modell. Wir setzen dann die Beziehung (2) für wt-1 in Gleichung (1) (3) ein (zt wt theta1 (z-therma1w) wt theta1z - theta2w) Zum Zeitpunkt t-2. Gleichung (2) wird dann in Gleichung (3) die Gleichung (4) für wt-2 ersetzen (zt wt theta1 z - theta21w wt theta1z - theta21 (z - theta1w) wt theta1z - theta12z theta31w) Unendlich), erhalten wir das unendliche Ordnungsmodell (zt wt theta1 z - theta21z theta31z - theta41z Punkte) Beachten Sie jedoch, dass bei 1 1 die Koeffizienten, die die Verzögerungen von z vervielfachen (unendlich) in der Größe zunehmen, Zeit. Um dies zu verhindern, benötigen wir 1 lt1. Dies ist die Bedingung für ein invertierbares MA (1) - Modell. Unendlich Ordnung MA Modell In Woche 3, gut sehen, dass ein AR (1) Modell in ein unendliches order MA Modell umgewandelt werden kann: (xt - mu wt phi1w phi21w Punkte phik1 w Punkte sum phij1w) Diese Summation der Vergangenheit weißer Rauschbegriffe ist bekannt Als die kausale Darstellung eines AR (1). Mit anderen Worten, x t ist eine spezielle Art von MA mit einer unendlichen Anzahl von Begriffen, die in der Zeit zurückgehen. Dies wird als unendliche Ordnung MA oder MA () bezeichnet. Eine endliche Ordnung MA ist eine unendliche Ordnung AR und jede endliche Ordnung AR ist eine unendliche Ordnung MA. Rückruf in Woche 1, stellten wir fest, dass eine Anforderung für eine stationäre AR (1) ist, dass 1 lt1. Berechnen Sie die Var (x t) mit der kausalen Darstellung. Dieser letzte Schritt verwendet eine Grundtatsache über geometrische Reihen, die (phi1lt1) erforderlich sind, ansonsten divergiert die Reihe. NavigationDokumentation ist das unbedingte Mittel des Prozesses, und x03C8 (L) ist ein rationales Unendlich-Grad-Verzögerungsoperatorpolynom (1 x03C8 1 L x03C8 2 L 2 x2026). Anmerkung: Die Constant-Eigenschaft eines arima-Modellobjekts entspricht c. Und nicht das unbedingte Mittel 956. Durch Wolds-Zerlegung 1. Gleichung 5-12 entspricht einem stationären stochastischen Prozeß, vorausgesetzt, daß die Koeffizienten x03C8i absolut summierbar sind. Dies ist der Fall, wenn das AR-Polynom, x03D5 (L). Stabil ist. Dh alle Wurzeln liegen außerhalb des Einheitskreises. Zusätzlich ist das Verfahren kausal, vorausgesetzt das MA-Polynom ist invertierbar. Dh alle Wurzeln liegen außerhalb des Einheitskreises. Econometrics Toolbox forciert Stabilität und Invertierbarkeit von ARMA Prozessen. Wenn Sie ein ARMA-Modell mit Arima angeben. Erhalten Sie einen Fehler, wenn Sie Koeffizienten eingeben, die nicht einem stabilen AR-Polynom oder einem invertierbaren MA-Polynom entsprechen. Ähnlich erfordert die Schätzung während der Schätzung Stationaritäts - und Invertibilitätsbeschränkungen. Literatur 1 Wold, H. Eine Studie in der Analyse stationärer Zeitreihen. Uppsala, Schweden: Almqvist amp Wiksell, 1938. Wählen Sie Ihr Land

Comments

Popular posts from this blog

Forex4noobs Weiterbildung

Lernen Sie Forex mit Preis-Aktion Ich glaube, dass intelligente Händler, die in Forex erfolgreich sein wollen, müssen Preis-Aktion, und ihre Trading-Psychologie. Preis-Aktion ist der einfachste Weg, um Forex-Handel zu lernen, und Handelspsychologie stellt sicher, dass Sie den richtigen Weg handeln. Vergessen Sie mit verwirrenden Indikatoren. Vergessen Sie Sorgen um jeden Handel. Vergessen Sie den Handel ohne einen Plan. Wenn Sie Forex den richtigen Weg lernen wollen, kann ich Ihnen helfen. Nehmen Sie einige Preis-Action-Trades in dieser Woche Machen Sie mit meinem wöchentlichen Newsletter, um meine neuesten Preis-Action-Analyse und meine Trading-Tipps. Beherrschen Sie Ihre Handelspsychologie, bauen Sie Ihr Trading-Vertrauen und nehmen Sie einige Trades mit mir. Worauf warten Sie, wo Sie anfangen sollen? Sie wollen Forex lernen, aber Sie wissen nicht, wo ich anfangen soll. Nun, habe ich forex4noobs entworfen, um Sie von den Grundlagen bis hin zu erweiterten Preis-Action-Trading zu nehme...

Day Trading Strategien Mit Bollinger Bands

TRADINGSIM DAY TRADING BLOG Top 4 Bollinger Bands Trading Strategies Quoten sind Sie auf dieser Seite auf der Suche nach Bollinger-Band-Trading-Strategien gelandet. Geheimnisse, beste Bands zu bedienen oder mein Favorit - die Kunst der Bollinger Band Squeeze. Bevor Sie auf den Abschnitt mit dem Titel Bollinger-Band Trading-Strategien, die alle diese Themen und mehr lassen Sie mich zwei zusätzliche Ressourcen auf der Website, die von Wert für Sie sind zu teilen: (1) Trading Simulator (Sie müssen praktizieren, was Sie gelernt haben ) Und (2) Indikatoren Kategorie (Bestätigung Ihrer Bollinger-Band-Strategie mit einem anderen Indikator ist immer ein Plus). Bollinger Band Indikator Bollinger Bands sind eine sehr starke technische Indikator. Einige Händler werden schwören, dass alleinige Handel Bollinger Bands der Schlüssel zu ihren siegreichen Systemen ist. Bollinger-Bänder sind innerhalb und um die Preisstruktur einer Aktie gezogen. Es bietet relative Grenzen von Höhen und Tiefen. Der Crux...

Amazon Eingeschränkte Aktienoptionen

Restricted Stock Unit Was ist ein Restricted Stock Unit Ein Restricted Stock Einheit ist eine Entschädigung von einem Arbeitgeber an einen Mitarbeiter in Form von Aktien der Gesellschaft angeboten. Der Mitarbeiter erhält die Aktie nicht sofort, sondern erhält sie nach einem Vesting Plan und Verteilungsplan nach Erreichen der geforderten Performance-Meilensteine ​​oder bei Verbleib bei dem Arbeitgeber für eine bestimmte Zeitdauer. Den beschränkten Beständen (RSU) wird ein fairer Marktwert zugewiesen. Nach der Ausübung werden sie als Einkommen betrachtet, und ein Teil der Anteile wird einbehalten, um Einkommensteuern zu zahlen. Der Mitarbeiter erhält die restlichen Anteile und kann diese jederzeit veräußern. VIDEO Laden des Players. BREAKING DOWN Restricted Stock Unit Beispielsweise wird angenommen, dass Madeline ein Stellenangebot erhält. Weil das Unternehmen glaubt, Madelines Skill Set ist besonders wertvoll und hofft, sie wird ein langfristiger Mitarbeiter bleiben, bietet es einen Tei...