Zeitreihenanalyse tsa statsmodels. tsa enthält Modellklassen und Funktionen, die für die Zeitreihenanalyse nützlich sind. Dies umfasst derzeit univariate autoregressive Modelle (AR), Vektor autoregressive Modelle (VAR) und univariate autoregressive gleitende durchschnittliche Modelle (ARMA). Es enthält auch deskriptive Statistiken für Zeitreihen, zB Autokorrelation, partielle Autokorrelationsfunktion und Periodogramm sowie die entsprechenden theoretischen Eigenschaften von ARMA oder verwandten Prozessen. Es enthält auch Methoden, um mit autoregressiven und bewegten durchschnittlichen Lag-Polynomen zu arbeiten. Darüber hinaus stehen entsprechende statistische Tests und einige nützliche Helferfunktionen zur Verfügung. Die Schätzung erfolgt entweder durch exakte oder bedingte Maximum Likelihood oder bedingte kleinste Quadrate, entweder mit Kalman Filter oder Direct Filtern. Derzeit müssen Funktionen und Klassen aus dem entsprechenden Modul importiert werden, aber die Hauptklassen werden im statsmodels. tsa-Namespace zur Verfügung gestellt. Die Modulstruktur befindet sich innerhalb von statsmodels. tsa ist stattools. Empirische Eigenschaften und Tests, acf, pacf, granger-causality, adf Einheit Wurzeltest, ljung-box Test und andere. Armodel Univariate autoregressive Prozess, Schätzung mit bedingten und exakten Maximum-Likelihood und bedingten kleinsten Quadrate Arimamodel. Univariate ARMA-Prozess, Schätzung mit bedingten und exakten Maximum-Likelihood und bedingten kleinsten Quadrate vectorar, var. Vektor autoregressive Prozess (VAR) Schätzmodelle, Impulsantwortanalyse, Prognosefehler Varianzzerlegungen und Datenvisualisierungswerkzeuge kalmanf. Schätzungsklassen für ARMA und andere Modelle mit exaktem MLE mit Kalman Filter armaprocess. Eigenschaften von Arma-Prozessen mit vorgegebenen Parametern, Dazu gehören Werkzeuge zur Umwandlung zwischen ARMA, MA und AR-Darstellung sowie acf, pacf, spektrale Dichte, Impulsantwortfunktion und ähnliches sandbox. tsa. fftarma. Ähnlich wie armaprocess aber arbeiten im Frequenzbereich tsatools. Zusätzliche Helfer-Funktionen, um Arrays von verzögerten Variablen zu schaffen, konstruieren Regressoren für Trend, Detrend und ähnliches. Filter. Helper-Funktion zum Filtern von Zeitreihen Einige zusätzliche Funktionen, die auch für die Zeitreihenanalyse nützlich sind, sind in anderen Teilen von Statsmodellen, zum Beispiel zusätzliche statistische Tests. Einige verwandte Funktionen sind auch in matplotlib, nitime und scikits. talkbox verfügbar. Diese Funktionen sind mehr für den Einsatz in der Signalverarbeitung ausgelegt, wo längere Zeitreihen verfügbar sind und häufiger im Frequenzbereich arbeiten. Beschreibende Statistiken und Tests stattools. acovf (x, unvoreingenommen, demean, fft) Autoregressive gleitende durchschnittliche Fehlerprozesse (ARMA-Fehler) und andere Modelle, die Verzögerungen von Fehlerbegriffen beinhalten, können mit Hilfe von FIT-Anweisungen geschätzt und mit SOLVE-Anweisungen simuliert oder prognostiziert werden . ARMA-Modelle für den Fehlerprozess werden oft für Modelle mit autokorrelierten Resten verwendet. Das AR-Makro kann verwendet werden, um Modelle mit autoregressiven Fehlerprozessen festzulegen. Das MA-Makro kann verwendet werden, um Modelle mit gleitenden durchschnittlichen Fehlerprozessen zu spezifizieren. Autoregressive Fehler Ein Modell mit Autoregressivfehlern erster Ordnung, AR (1), hat die Form, während ein AR (2) Fehlerprozess die Form und so weiter für höherwertige Prozesse hat. Beachten Sie, dass die s unabhängig und identisch verteilt sind und einen erwarteten Wert von 0 haben. Ein Beispiel für ein Modell mit einer AR (2) - Komponente ist und so weiter für höherwertige Prozesse. Zum Beispiel können Sie ein einfaches lineares Regressionsmodell mit MA (2) gleitenden Durchschnittsfehlern schreiben, da MA1 und MA2 die gleitenden Durchschnittsparameter sind. Beachten Sie, dass RESID. Y automatisch von PROC MODEL definiert wird. Die ZLAG-Funktion muss für MA-Modelle verwendet werden, um die Rekursion der Verzögerungen abzuschneiden. Damit wird sichergestellt, dass die verzögerten Fehler in der Lag-Priming-Phase bei Null beginnen und bei fehlenden Fehlern keine fehlenden Werte ausbreiten, und es stellt sicher, dass die zukünftigen Fehler null sind, anstatt während der Simulation oder Prognose zu fehlen. Einzelheiten zu den Lag-Funktionen finden Sie im Abschnitt Lag Logic. Dieses Modell, das mit dem MA-Makro geschrieben wurde, lautet wie folgt: Allgemeines Formular für ARMA-Modelle Das allgemeine ARMA (p, q) - Verfahren hat folgendes Formular Ein ARMA (p, q) - Modell kann wie folgt angegeben werden: wobei AR i und MA j repräsentieren Die autoregressiven und gleitenden Durchschnittsparameter für die verschiedenen Verzögerungen. Sie können alle Namen, die Sie für diese Variablen wollen, und es gibt viele gleichwertige Möglichkeiten, dass die Spezifikation geschrieben werden könnte. Vektor-ARMA-Prozesse können auch mit PROC MODEL geschätzt werden. Beispielsweise kann ein zwei-variables AR (1) - Verfahren für die Fehler der beiden endogenen Variablen Y1 und Y2 wie folgt spezifiziert werden: Konvergenzprobleme mit ARMA-Modellen ARMA-Modelle können schwer abzuschätzen sein. Wenn die Parameterschätzungen nicht innerhalb des entsprechenden Bereichs liegen, wachsen ein gleitender Durchschnittsrestbestand exponentiell. Die berechneten Residuen für spätere Beobachtungen können sehr groß sein oder überlaufen. Dies kann entweder geschehen, weil falsche Startwerte verwendet wurden oder weil die Iterationen von vernünftigen Werten entfernt wurden. Bei der Auswahl von Startwerten für ARMA-Parameter sollte die Pflege verwendet werden. Startwerte von 0,001 für ARMA-Parameter funktionieren in der Regel, wenn das Modell die Daten gut passt und das Problem gut konditioniert ist. Beachten Sie, dass ein MA-Modell oft durch ein höheres AR-Modell angenähert werden kann und umgekehrt. Dies kann zu einer hohen Kollinearität in gemischten ARMA-Modellen führen, was wiederum eine ernsthafte Konditionierung in den Berechnungen und Instabilitäten der Parameterschätzungen verursachen kann. Wenn Sie Konvergenzprobleme haben, während Sie ein Modell mit ARMA-Fehlerprozessen abschätzen, versuchen Sie es in Schritten zu schätzen. Zuerst verwenden Sie eine FIT-Anweisung, um nur die strukturellen Parameter mit den ARMA-Parametern auf Null (oder vernünftige vorherige Schätzungen falls vorhanden) abzuschätzen. Als nächstes verwenden Sie eine andere FIT-Anweisung, um die ARMA-Parameter nur mit den strukturellen Parameterwerten aus dem ersten Lauf zu schätzen. Da die Werte der Strukturparameter wahrscheinlich nahe an ihren endgültigen Schätzungen liegen, können die ARMA-Parameter-Schätzungen nun konvergieren. Schließlich verwenden Sie eine andere FIT-Anweisung, um simultane Schätzungen aller Parameter zu erzeugen. Da die Anfangswerte der Parameter nun wahrscheinlich ganz nahe bei ihren endgültigen gemeinsamen Schätzungen liegen, sollten die Schätzungen schnell konvergieren, wenn das Modell für die Daten geeignet ist. AR Anfangsbedingungen Die anfänglichen Verzögerungen der Fehlerausdrücke von AR (p) - Modellen können auf unterschiedliche Weise modelliert werden. Die autoregressiven Fehlerstartmethoden, die von SASETS-Prozeduren unterstützt werden, sind die folgenden: bedingte kleinste Quadrate (ARIMA - und MODELL-Prozeduren) bedingungslose kleinste Quadrate (AUTOREG-, ARIMA - und MODELL-Prozeduren) maximale Wahrscheinlichkeit (AUTOREG-, ARIMA - und MODELL-Prozeduren) Yule-Walker (AUTOREG Vorgehensweise) Hildreth-Lu, der die ersten P-Beobachtungen löscht (nur MODEL-Verfahren) Siehe Kapitel 8, Das AUTOREG-Verfahren für eine Erläuterung und Diskussion der Vorzüge verschiedener AR (p) Startmethoden. Die CLS-, ULS-, ML - und HL-Initialisierungen können von PROC MODEL durchgeführt werden. Bei AR (1) Fehlern können diese Initialisierungen wie in Tabelle 18.2 gezeigt hergestellt werden. Diese Methoden sind in großen Proben äquivalent. Tabelle 18.2 Initialisierungen von PROC MODEL: AR (1) FEHLER Die anfänglichen Verzögerungen der Fehlerterme von MA (q) Modellen können auch auf unterschiedliche Weise modelliert werden. Die folgenden gleitenden durchschnittlichen Fehler-Start-up-Paradigmen werden von den ARIMA - und MODEL-Prozeduren unterstützt: bedingungslose kleinste Quadrate bedingte kleinste Quadrate Die bedingte Methode der kleinsten Quadrate, um gleitende durchschnittliche Fehlerbegriffe zu schätzen, ist nicht optimal, da sie das Start-Problem ignoriert. Dies verringert die Effizienz der Schätzungen, obwohl sie selbständig bleiben. Die anfänglichen verzögerten Residuen, die sich vor dem Start der Daten erstrecken, werden als 0 angenommen, ihr unbedingter Erwartungswert. Dies führt zu einem Unterschied zwischen diesen Residuen und den verallgemeinerten kleinsten Quadraten-Resten für die gleitende Durchschnittskovarianz, die im Gegensatz zum autoregressiven Modell durch den Datensatz bestehen bleibt. Normalerweise konvergiert diese Differenz schnell auf 0, aber für fast nicht umwandelbare gleitende Mittelprozesse ist die Konvergenz ziemlich langsam. Um dieses Problem zu minimieren, sollten Sie genügend Daten haben, und die gleitenden durchschnittlichen Parameterschätzungen sollten innerhalb des invertierbaren Bereichs liegen. Dieses Problem kann auf Kosten des Schreibens eines komplexeren Programms korrigiert werden. Unbedingte kleinste Quadrate Schätzungen für die MA (1) Prozess kann durch die Angabe des Modells wie folgt produziert werden: Moving-Average-Fehler können schwer abzuschätzen. Sie sollten eine AR (p) - Animation an den gleitenden Mittelprozess anwenden. Ein gleitender Durchschnittsprozess kann in der Regel durch einen autoregressiven Prozess gut angenähert werden, wenn die Daten nicht geglättet oder differenziert wurden. Das AR-Makro Das SAS-Makro AR erzeugt Programmieranweisungen für PROC MODEL für autoregressive Modelle. Das AR-Makro ist Teil der SASETS-Software und es sind keine speziellen Optionen erforderlich, um das Makro zu verwenden. Der autoregressive Prozess kann auf die strukturellen Gleichungsfehler oder auf die endogene Reihe selbst angewendet werden. Das AR-Makro kann für die folgenden Autoregressionstypen verwendet werden: uneingeschränkte Vektorautoregression eingeschränkte Vektorautoregression Univariate Autoregression Um den Fehlerterm einer Gleichung als autoregressiven Prozess zu modellieren, verwenden Sie nach der Gleichung die folgende Aussage: Angenommen, Y ist ein Lineare Funktion von X1, X2 und einem AR (2) Fehler. Sie würden dieses Modell wie folgt schreiben: Die Anrufe nach AR müssen nach allen Gleichungen kommen, auf die der Prozess zutrifft. Der vorangehende Makroaufruf, AR (y, 2), erzeugt die in der LIST-Ausgabe in Abbildung 18.58 dargestellten Anweisungen. Abbildung 18.58 LIST Option Ausgang für ein AR (2) - Modell Die PRED-vordefinierten Variablen sind temporäre Programmvariablen, so dass die Verzögerungen der Residuen die korrekten Residuen sind und nicht die durch diese Gleichung neu definierten. Beachten Sie, dass dies den Aussagen entspricht, die explizit im Abschnitt Allgemeine Formular für ARMA-Modelle geschrieben sind. Sie können die autoregressiven Parameter auch bei ausgewählten Lags auf Null setzen. Wenn Sie z. B. autoregressive Parameter bei den Ziffern 1, 12 und 13 wünschen, können Sie die folgenden Aussagen verwenden: Diese Aussagen erzeugen die in Abbildung 18.59 dargestellte Ausgabe. Abbildung 18.59 LIST Option Ausgang für ein AR-Modell mit Lags bei 1, 12 und 13 Das MODEL Procedure Listing von Compiled Program Code Statement als Parsed PRED. yab x1 c x2 RESID. y PRED. y - ACTUAL. y ERROR. Y PRED. Y - y OLDPRED. y PRED. y yl1 ZLAG1 (y - perdy) yl12 ZLAG12 (y - perdy) yl13 ZLAG13 (y - perdy) RESID. y PRED. y - ACTUAL. y ERROR. Y PRED. y - y Es gibt Variationen der bedingten Methode der kleinsten Quadrate, je nachdem, ob Beobachtungen zu Beginn der Serie zum Aufwärmen des AR-Prozesses verwendet werden. Standardmäßig verwendet die AR-bedingte Methode der kleinsten Quadrate alle Beobachtungen und nimmt Nullen für die anfänglichen Verzögerungen autoregressiver Begriffe an. Durch die Verwendung der M-Option können Sie anfordern, dass AR die unbedingte Methode der kleinsten Quadrate (ULS) oder Maximum-Likelihood (ML) verwendet. Zum Beispiel finden die Diskussionen dieser Methoden im Abschnitt AR Anfangsbedingungen. Mit der Option MCLS n können Sie anfordern, dass die ersten n Beobachtungen verwendet werden, um Schätzungen der ursprünglichen autoregressiven Verzögerungen zu berechnen. In diesem Fall beginnt die Analyse mit der Beobachtung n 1. Zum Beispiel: Mit dem AR-Makro können Sie mit der Option TYPEV ein autoregressives Modell an die endogene Variable anstelle des Fehlerbegriffs anwenden. Wenn Sie zum Beispiel die fünf vergangenen Verzögerungen von Y der Gleichung im vorherigen Beispiel hinzufügen möchten, können Sie mit AR die Parameter und Verzögerungen verwenden, indem Sie die folgenden Anweisungen verwenden: Die vorherigen Anweisungen erzeugen die in Abbildung 18.60 dargestellte Ausgabe. Abbildung 18.60 LIST Option Ausgang für ein AR-Modell von Y Dieses Modell prognostiziert Y als lineare Kombination von X1, X2, einem Intercept und den Werten von Y in den letzten fünf Perioden. Unbeschränkte Vektor-Autoregression Um die Fehlerterme eines Satzes von Gleichungen als autoregressiver Autorektor zu modellieren, verwenden Sie nach den Gleichungen die folgende Form des AR-Makros: Der Prozeßname-Wert ist ein beliebiger Name, den Sie für AR verwenden, um Namen für den autoregressiven zu verwenden Parameter. Sie können das AR-Makro verwenden, um mehrere verschiedene AR-Prozesse für verschiedene Sätze von Gleichungen zu modellieren, indem Sie für jeden Satz unterschiedliche Prozessnamen verwenden. Der Prozessname stellt sicher, dass die verwendeten Variablennamen eindeutig sind. Verwenden Sie einen kurzen Prozessnamenwert für den Prozess, wenn Parameterschätzungen in einen Ausgabedatensatz geschrieben werden sollen. Das AR-Makro versucht, Parameternamen zu erstellen, die kleiner oder gleich acht Zeichen sind, aber dies ist durch die Länge des Prozessnamens begrenzt. Die als Präfix für die AR-Parameternamen verwendet wird. Der Variablenwert ist die Liste der endogenen Variablen für die Gleichungen. Angenommen, dass Fehler für die Gleichungen Y1, Y2 und Y3 durch einen autoregressiven Prozess zweiter Ordnung erzeugt werden. Sie können die folgenden Aussagen verwenden, die für Y1 und einen ähnlichen Code für Y2 und Y3 generieren: Für die Vektorprozesse kann nur die Methode der bedingten kleinsten Quadrate (MCLS oder MCLS n) verwendet werden. Sie können auch das gleiche Formular mit Einschränkungen verwenden, dass die Koeffizientenmatrix bei ausgewählten Lags 0 ist. Zum Beispiel geben die folgenden Aussagen einen Vektorprozess dritter Ordnung an die Gleichungsfehler mit allen Koeffizienten bei Verzögerung 2, die auf 0 beschränkt ist, und mit den Koeffizienten bei Verzögerungen 1 und 3 uneingeschränkt: Sie können die drei Serien Y1Y3 als Vektor autoregressiven Prozess modellieren In den Variablen statt in den Fehlern mit der Option TYPEV. Wenn du Y1Y3 als Funktion von vergangenen Werten von Y1Y3 und einigen exogenen Variablen oder Konstanten modellieren möchtest, kannst du mit AR die Aussagen für die Verzögerungsbedingungen erzeugen. Schreiben Sie für jede Variable eine Gleichung für den nichtautoregressiven Teil des Modells und rufen Sie dann AR mit der Option TYPEV auf. Zum Beispiel kann der nichtautoregressive Teil des Modells eine Funktion von exogenen Variablen sein, oder es können Abschnittsparameter sein. Wenn es keine exogenen Komponenten für das Vektor-Autoregression-Modell gibt, einschließlich keine Abschnitte, dann ordnen Sie jeder der Variablen Null zu. Es muss eine Zuordnung zu jeder der Variablen geben, bevor AR aufgerufen wird. Dieses Beispiel modelliert den Vektor Y (Y1 Y2 Y3) als lineare Funktion nur seines Wertes in den vorherigen zwei Perioden und einen weißen Rauschfehlervektor. Das Modell hat 18 (3 3 3 3) Parameter. Syntax des AR-Makros Es gibt zwei Fälle der Syntax des AR-Makros. Wenn keine Beschränkungen für einen Vektor-AR-Prozess erforderlich sind, gibt die Syntax des AR-Makros das allgemeine Formular ein Präfix für AR, das beim Erstellen von Namen von Variablen verwendet wird, die benötigt werden, um den AR-Prozess zu definieren. Wenn der Endolist nicht angegeben ist, wird die endogene Liste standardmäßig benannt. Die der Name der Gleichung sein muss, auf die der AR-Fehlerprozess angewendet werden soll. Der Name Wert darf 32 Zeichen nicht überschreiten. Ist die Reihenfolge des AR-Prozesses. Gibt die Liste der Gleichungen an, auf die der AR-Prozess angewendet werden soll. Wenn mehr als ein Name gegeben ist, wird ein uneingeschränkter Vektorprozess mit den strukturellen Resten aller Gleichungen erzeugt, die als Regressoren in jeder der Gleichungen enthalten sind. Wenn nicht angegeben, wird endolist standardmäßig benannt. Gibt die Liste der Verzögerungen an, an denen die AR-Begriffe hinzugefügt werden sollen. Die Koeffizienten der Terme, die nicht aufgeführt sind, werden auf 0 gesetzt. Alle aufgeführten Lags müssen kleiner oder gleich nlag sein. Und es muss keine Duplikate geben. Wenn nicht angegeben, wird die Laglist standardmäßig auf alle Verzögerungen 1 bis nlag gesetzt. Legt die zu implementierende Schätzmethode fest. Gültige Werte von M sind CLS (bedingte kleinste Quadrate Schätzungen), ULS (unbedingte kleinste Quadrate Schätzungen) und ML (Maximum Likelihood Schätzungen). MCLS ist die Voreinstellung. Nur MCLS ist erlaubt, wenn mehr als eine Gleichung angegeben ist. Die ULS - und ML-Methoden werden für AR-Modelle von AR nicht unterstützt. Dass der AR-Prozess auf die endogenen Variablen selbst anstatt auf die strukturellen Residuen der Gleichungen angewendet werden soll. Eingeschränkte Vektor-Autoregression Sie können steuern, welche Parameter in den Prozess aufgenommen werden, und beschränken auf 0 die Parameter, die Sie nicht enthalten. Zuerst verwenden Sie AR mit der Option DEFER, um die Variablenliste zu deklarieren und die Dimension des Prozesses zu definieren. Verwenden Sie dann zusätzliche AR-Aufrufe, um Begriffe für ausgewählte Gleichungen mit ausgewählten Variablen an ausgewählten Lags zu erzeugen. Zum Beispiel sind die erzeugten Fehlergleichungen wie folgt: Dieses Modell besagt, dass die Fehler für Y1 von den Fehlern von Y1 und Y2 (aber nicht Y3) an beiden Verzögerungen 1 und 2 abhängen und dass die Fehler für Y2 und Y3 davon abhängen Die vorherigen Fehler für alle drei Variablen, aber nur bei Verzögerung 1. AR-Makro-Syntax für eingeschränkte Vektor-AR Eine alternative Verwendung von AR erlaubt es, Einschränkungen für einen Vektor-AR-Prozess aufzuerlegen, indem man AR mehrmals aufruft, um verschiedene AR-Terme und Verzögerungen für verschiedene anzugeben Gleichungen. Der erste Aufruf hat das allgemeine Formular spezifiziert ein Präfix für AR, das beim Erstellen von Namen von Variablen verwendet wird, die benötigt werden, um den Vektor-AR-Prozess zu definieren. Gibt die Reihenfolge des AR-Prozesses an. Gibt die Liste der Gleichungen an, auf die der AR-Prozess angewendet werden soll. Gibt an, dass AR nicht den AR-Prozess generieren soll, sondern auf weitere Informationen warten muss, die in späteren AR-Aufrufen für denselben Namenswert angegeben sind. Die nachfolgenden Anrufe haben die allgemeine Form ist die gleiche wie im ersten Aufruf. Gibt die Liste der Gleichungen an, auf die die Spezifikationen dieses AR-Aufrufs angewendet werden sollen. Nur Namen, die im endolistischen Wert des ersten Aufrufs für den Namen Wert angegeben sind, können in der Liste der Gleichungen in der eqlist erscheinen. Spezifiziert die Liste der Gleichungen, deren verzögerte strukturelle Residuen als Regressoren in den Gleichungen in eqlist aufgenommen werden sollen. Nur Namen im Endolisten des ersten Aufrufs für den Namenswert können in varlist erscheinen. Wenn nicht angegeben, varlist standardmäßig endolist. Gibt die Liste der Verzögerungen an, an denen die AR-Begriffe hinzugefügt werden sollen. Die Koeffizienten der Terme, die nicht aufgeführt sind, werden auf 0 gesetzt. Alle aufgeführten Lags müssen kleiner oder gleich dem Wert von nlag sein. Und es muss keine Duplikate geben. Wenn nicht angegeben, wird die Laglist standardmäßig auf alle Verzögerungen 1 bis nlag gesetzt. Das MA-Makro Das SAS-Makro MA generiert Programmierungsanweisungen für PROC MODEL für gleitende Durchschnittsmodelle. Das MA-Makro ist Teil der SASETS-Software und es sind keine speziellen Optionen erforderlich, um das Makro zu verwenden. Der gleitende durchschnittliche Fehlerprozess kann auf die strukturellen Gleichungsfehler angewendet werden. Die Syntax des MA-Makros ist das gleiche wie das AR-Makro, außer es gibt kein TYPE-Argument. Wenn Sie die MA - und AR-Makros kombinieren, muss das MA-Makro dem AR-Makro folgen. Die folgenden SASIML-Anweisungen erzeugen einen ARMA (1, (1 3)) Fehlerprozess und speichern ihn im Datensatz MADAT2. Die folgenden PROC MODEL-Anweisungen werden verwendet, um die Parameter dieses Modells mit Hilfe der Maximum-Likelihood-Fehlerstruktur zu schätzen: Die Schätzungen der Parameter, die durch diesen Lauf erzeugt werden, sind in Abbildung 18.61 dargestellt. Abbildung 18.61 Schätzungen aus einem ARMA (1, (1 3)) Prozess Es gibt zwei Fälle der Syntax für das MA-Makro. Wenn Einschränkungen für einen Vektor-MA-Prozess nicht benötigt werden, gibt die Syntax des MA-Makros das allgemeine Formular ein Präfix für MA an, das beim Erstellen von Namen von Variablen verwendet wird, die benötigt werden, um den MA-Prozess zu definieren und ist der Standard-Endolist. Ist die Reihenfolge des MA-Prozesses. Gibt die Gleichungen an, auf die der MA-Prozess angewendet werden soll. Wenn mehr als ein Name angegeben ist, wird die CLS-Schätzung für den Vektorprozess verwendet. Gibt die Verzögerungen an, bei denen die MA-Bedingungen hinzugefügt werden sollen. Alle aufgeführten Lags müssen kleiner oder gleich nlag sein. Und es muss keine Duplikate geben. Wenn nicht angegeben, wird die Laglist standardmäßig auf alle Verzögerungen 1 bis nlag gesetzt. Legt die zu implementierende Schätzmethode fest. Gültige Werte von M sind CLS (bedingte kleinste Quadrate Schätzungen), ULS (unbedingte kleinste Quadrate Schätzungen) und ML (Maximum Likelihood Schätzungen). MCLS ist die Voreinstellung. Nur MCLS ist erlaubt, wenn im Endolisten mehr als eine Gleichung angegeben ist. MA Makro-Syntax für eingeschränkte Vektor-Moving-Average Eine alternative Verwendung von MA erlaubt es, Einschränkungen für einen Vektor-MA-Prozess aufzuerlegen, indem man MA mehrmals aufruft, um verschiedene MA-Terme anzugeben und für verschiedene Gleichungen zu verzögern. Der erste Aufruf hat das allgemeine Formular spezifiziert ein Präfix für MA, das beim Erstellen von Namen von Variablen verwendet wird, die benötigt werden, um den Vektor-MA-Prozess zu definieren. Gibt die Reihenfolge des MA-Prozesses an. Gibt die Liste der Gleichungen an, auf die der MA-Prozess angewendet werden soll. Gibt an, dass MA nicht den MA-Prozess generieren soll, sondern auf weitere Informationen warten muss, die in späteren MA-Aufrufen für denselben Namenswert angegeben sind. Die nachfolgenden Anrufe haben die allgemeine Form ist die gleiche wie im ersten Aufruf. Gibt die Liste der Gleichungen an, auf die die Spezifikationen dieses MA-Aufrufs angewendet werden sollen. Spezifiziert die Liste der Gleichungen, deren verzögerte strukturelle Residuen als Regressoren in den Gleichungen in eqlist aufgenommen werden sollen. Spezifiziert die Liste der Verzögerungen, an denen die MA-Terme hinzugefügt werden sollen. Autoregressive Moving Average ARMA (p, q) Modelle für die Zeitreihenanalyse - Teil 1 Im letzten Artikel sahen wir zufällige Spaziergänge und weißes Rauschen als Basis-Zeitreihenmodelle für Bestimmte Finanzinstrumente wie Tagesgeld - und Aktienindexpreise. Wir haben festgestellt, dass in einigen Fällen ein zufälliges Wandermodell nicht ausreicht, um das volle Autokorrelationsverhalten des Instruments zu erfassen, das anspruchsvollere Modelle motiviert. In den nächsten Artikeln werden wir drei Arten von Modellen besprechen, nämlich das Autoregressive (AR) Modell der Ordnung p, das Moving Average (MA) Modell der Ordnung q und das gemischte Autogressive Moving Average (ARMA) Modell der Ordnung p , Q Diese Modelle werden uns dabei helfen, mehr von der in einem Instrument vorhandenen seriellen Korrelation zu erfassen oder zu erklären. Letztlich werden sie uns ein Mittel zur Prognose der zukünftigen Preise geben. Es ist jedoch bekannt, dass die finanziellen Zeitreihen eine Eigenschaft besitzen, die als Volatilitätscluster bezeichnet wird. Das heißt, die Volatilität des Instruments ist nicht rechtzeitig konstant. Der Fachbegriff für dieses Verhalten wird als bedingte Heteroskedastizität bezeichnet. Da die AR-, MA - und ARMA-Modelle nicht bedingt heteroskedastisch sind, das heißt, sie berücksichtigen nicht die Volatilitäts-Clustering, werden wir letztlich ein anspruchsvolleres Modell für unsere Vorhersagen benötigen. Solche Modelle umfassen das Autogressive Conditional Heteroskedastic (ARCH) Modell und Generalized Autogressive Conditional Heteroskedastic (GARCH) Modell, und die vielen Varianten davon. GARCH ist in der quantitativen Finanzierung besonders bekannt und wird vor allem für finanzielle Zeitreihensimulationen als Mittel zur Risikoabschätzung eingesetzt. Doch wie bei allen QuantStart-Artikeln möchte ich diese Modelle aus einfacheren Versionen aufbauen, damit wir sehen können, wie jede neue Variante unsere Vorhersagefähigkeit verändert. Trotz der Tatsache, dass AR, MA und ARMA relativ einfache Zeitreihenmodelle sind, sind sie die Basis komplizierterer Modelle wie der Autoregressive Integrated Moving Average (ARIMA) und der GARCH Familie. Daher ist es wichtig, dass wir sie studieren. Eine unserer ersten Trading-Strategien in der Zeitreihen-Artikelserie wird es sein, ARIMA und GARCH zu kombinieren, um die Preise im Voraus vorhersagen zu können. Allerdings müssen wir warten, bis wir beide ARIMA und GARCH separat besprochen haben, bevor wir sie auf eine echte Strategie anwenden. Wie werden wir in diesem Artikel vorgehen, werden wir einige neue Zeitreihenkonzepte skizzieren, die für die restlichen Methoden, die streng sind, gut brauchen Stationarität und das Akaike-Informationskriterium (AIC). Im Anschluss an diese neuen Konzepte werden wir dem traditionellen Muster folgen, um neue Zeitreihenmodelle zu studieren: Begründung - Die erste Aufgabe ist es, einen Grund zu geben, warum sie an einem bestimmten Modell interessiert waren, als Quants. Warum werden wir das Zeitreihenmodell vorstellen Welche Effekte kann es erfassen Was verdienen wir (oder verlieren) durch Hinzufügen zusätzlicher Komplexität Definition - Wir müssen die vollständige mathematische Definition (und damit verbundene Notation) des Zeitreihenmodells zur Minimierung liefern Irgendeine Unklarheit. Zweite Ordnungseigenschaften - Wir diskutieren (und in einigen Fällen ableiten) die Eigenschaften der zweiten Ordnung des Zeitreihenmodells, das seinen Mittelwert, seine Varianz und seine Autokorrelationsfunktion einschließt. Correlogram - Wir verwenden die Eigenschaften zweiter Ordnung, um ein Korrelogramm einer Realisierung des Zeitreihenmodells zu zeichnen, um sein Verhalten zu visualisieren. Simulation - Wir simulieren Realisierungen des Zeitreihenmodells und passen dann das Modell an diese Simulationen an, um sicherzustellen, dass wir genaue Implementierungen haben und den passenden Prozess verstehen. Echte Finanzdaten - Wir passen das Zeitreihenmodell zu realen Finanzdaten und betrachten das Korrelogram der Residuen, um zu sehen, wie das Modell die serielle Korrelation in der Originalreihe berücksichtigt. Vorhersage - Wir erstellen n-Schritt voraus Prognosen des Zeitreihenmodells für bestimmte Realisierungen, um letztlich Handelssignale zu produzieren. Fast alle Artikel, die ich auf Zeitreihenmodellen schreibe, werden in dieses Muster fallen und es wird uns erlauben, die Unterschiede zwischen jedem Modell leicht zu vergleichen, wenn wir weitere Komplexität hinzufügen. Wurden begonnen, indem wir uns die strenge Stationarität und die AIC anschauen. Streng stationär Wir haben die Definition der Stationarität in den Artikel über die serielle Korrelation gegeben. Allerdings, weil wir in den Bereich vieler finanzieller Reihen mit verschiedenen Frequenzen eintreten werden, müssen wir sicherstellen, dass unsere (eventuellen) Modelle die zeitvariable Volatilität dieser Serien berücksichtigen. Insbesondere müssen wir ihre Heteroskedastizität berücksichtigen. Wir werden über dieses Thema kommen, wenn wir versuchen, bestimmte Modelle zu historischen Serien zu passen. Im Allgemeinen kann nicht die gesamte serielle Korrelation in den Resten der angepassten Modelle berücksichtigt werden, ohne Heteroskedastizität zu berücksichtigen. Das bringt uns zurück zum stationär. Eine Reihe ist nicht stationär in der Varianz, wenn sie zeitvariable Volatilität hat, per Definition. Dies motiviert eine rigorosere Definition der Stationarität, nämlich eine strikte Stationarität: Streng stationäre Serie Ein Zeitreihenmodell ist streng stationär, wenn die gemeinsame statistische Verteilung der Elemente x, ldots, x die gleiche ist wie die von xm, ldots, xm, Für alle ti, m. Man kann an diese Definition als einfach denken, daß die Verteilung der Zeitreihe für jede zeitliche Verschiebung unverändert ist. Insbesondere sind der Mittelwert und die Varianz rechtzeitig für eine streng stationäre Reihe konstant und die Autokovarianz zwischen xt und xs (zB) hängt nur von der absoluten Differenz von t und s, t-s ab. Wir werden in künftigen Stellen streng stationäre Serien besprechen. Akaike Information Criterion Ich habe in früheren Artikeln erwähnt, dass wir schließlich zu prüfen, wie man zwischen separaten besten Modellen wählen. Dies gilt nicht nur für die Zeitreihenanalyse, sondern auch für das maschinelle Lernen und allgemeiner für die Statistik im Allgemeinen. Die beiden wichtigsten Methoden, die wir (vorläufig) nutzen werden, sind das Akaike Information Criterion (AIC) und das Bayesian Information Criterion (wie wir mit unseren Artikeln über Bayesian Statistics weiter vorankommen). Nun kurz die AIC betrachten, wie es in Teil 2 des ARMA-Artikels verwendet wird. AIC ist im Wesentlichen ein Werkzeug, um bei der Modellauswahl zu helfen. Das heißt, wenn wir eine Auswahl von statistischen Modellen (einschließlich Zeitreihen) haben, dann schätzt die AIC die Qualität jedes Modells, relativ zu den anderen, die wir zur Verfügung haben. Es basiert auf Informationstheorie. Das ist ein hochinteressantes, tiefes thema, das wir leider nicht zu viel aussehen lassen können. Es versucht, die Komplexität des Modells auszugleichen, was in diesem Fall die Anzahl der Parameter bedeutet, mit wie gut es den Daten entspricht. Lets bieten eine Definition: Akaike Information Criterion Wenn wir die Wahrscheinlichkeit Funktion für ein statistisches Modell, die k Parameter hat und L maximiert die Wahrscheinlichkeit zu nehmen. Dann ist das Akaike Information Criterion gegeben durch: Das bevorzugte Modell, aus einer Auswahl von Modellen, hat die Minium AIC der Gruppe. Sie können sehen, dass die AIC wächst, wie die Anzahl der Parameter, k, erhöht, aber reduziert wird, wenn die negative log-Wahrscheinlichkeit erhöht. Im Wesentlichen bestraft es Modelle, die überfüllt sind. Wir werden AR, MA und ARMA Modelle von unterschiedlichen Aufträgen erstellen und eine Möglichkeit, das beste Modell zu wählen, passen zu einem bestimmten Datensatz, um die AIC zu benutzen. Dies ist, was gut tun, in den nächsten Artikel, vor allem für ARMA-Modelle. Autoregressive (AR) Modelle der Ordnung p Das erste Modell, das die Grundlage von Teil 1 bildet, ist das Autoregressive Modell der Ordnung p, das oft zu AR (p) verkürzt wird. Im vorherigen Artikel betrachteten wir den zufälligen Spaziergang. Wo jeder Begriff xt nur von dem vorherigen Term abhängig ist, x und ein stochastischer weißer Rauschbegriff, wt: Das autoregressive Modell ist einfach eine Erweiterung des zufälligen Spaziergangs, der Begriffe noch weiter in der Zeit enthält. Die Struktur des Modells ist linear. Das ist das Modell hängt linear von den vorherigen Terme ab, mit Koeffizienten für jeden Begriff. Hier kommt der regressive aus autoregressiv Es handelt sich im Wesentlichen um ein Regressionsmodell, bei dem die vorherigen Begriffe die Prädiktoren sind. Autoregressives Modell der Ordnung p Ein Zeitreihenmodell, ist ein autoregressives Modell der Ordnung p. AR (p), wenn: begin xt alpha1 x ldots alphap x wt sum p alphai x wt end Wo ist weißes Rauschen und alphai in mathbb, mit alphap neq 0 für einen autorgressiven Prozess der p-Ordnung. Wenn wir den Backward Shift Operator betrachten. (Siehe vorheriger Artikel), dann können wir das oben beschriebene als Funktionsthema von: begin thetap () xt (1 - alpha1 - alpha2 2 - ldots - alphap) xt wt Ende Vielleicht das erste, was über das AR (p) Modell zu bemerken ist Ist, dass ein zufälliger Spaziergang einfach AR (1) mit alpha1 gleich Eins ist. Wie wir oben erwähnt haben, ist das autogressive Modell eine Erweiterung des zufälligen Spaziergangs, so dass dies sinnvoll ist. Es ist einfach, Vorhersagen mit dem AR (p) - Modell zu machen, zu jeder Zeit t, sobald wir die Alpha-Koeffizienten bestimmt haben, unsere Schätzung Einfach wird: begin hut t alpha1 x ldots alphap x ende Daher können wir n-Schritt voraus Prognosen machen, indem wir Hut t, Hut, Hut, etc. bis zum Hut produzieren. In der Tat, sobald wir die ARMA-Modelle in Teil 2 betrachten, werden wir die R-Vorhersage-Funktion verwenden, um Prognosen (zusammen mit Standard-Fehler-Konfidenz-Intervall-Bands) zu erstellen, die uns helfen, Handelssignale zu erzeugen. Stationarität für autoregressive Prozesse Einer der wichtigsten Aspekte des AR (p) Modells ist, dass es nicht immer stationär ist. In der Tat hängt die Stationarität eines bestimmten Modells von den Parametern ab. Ive berührte dies vorher in einem früheren Artikel. Um festzustellen, ob ein AR (p) - Prozess stationär ist oder nicht, müssen wir die charakteristische Gleichung lösen. Die charakteristische Gleichung ist einfach das autoregressive Modell, das in umgekehrter Verschiebungsform geschrieben ist, auf Null gesetzt: Wir lösen diese Gleichung für. Damit der jeweilige autoregressive Prozeß stationär ist, brauchen wir alle Absolutwerte der Wurzeln dieser Gleichung, um die Einheit zu übersteigen. Dies ist eine äußerst nützliche Eigenschaft und ermöglicht es uns schnell zu berechnen, ob ein AR (p) Prozess stationär ist oder nicht. Wir danken ein paar Beispiele, um diese Idee konkret zu machen: Random Walk - Der AR (1) Prozess mit alpha1 1 hat die charakteristische Gleichung theta 1 -. Offensichtlich hat das Wurzel 1 und ist als solches nicht stationär. AR (1) - Wenn wir alpha1 frac wählen, erhalten wir xt frac x wt. Dies ergibt eine charakteristische Gleichung von 1 - frac 0, die eine Wurzel 4 gt 1 hat und so ist dieses spezielle AR (1) - Verfahren stationär. AR (2) - Wenn wir alpha1 alpha2 frac setzen, dann erhalten wir xt frac x frac x wt. Seine charakteristische Gleichung wird - frac () () 0, was zwei Wurzeln von 1, -2 ergibt. Da dies eine Einheit Wurzel hat, ist es eine nicht-stationäre Serie. Allerdings können andere AR (2) Serien stationär sein. Second Order Properties Der Mittelwert eines AR (p) Prozesses ist Null. Allerdings sind die Autokovarianzen und Autokorrelationen durch rekursive Funktionen, die als die Yule-Walker-Gleichungen bekannt sind, gegeben. Die vollständigen Eigenschaften sind unten angegeben: begin mux E (xt) 0 end begin gammak sum p alphai gamma, enspace k 0 end begin rhok sum p alphai rho, enspace k 0 end Beachten Sie, dass es notwendig ist, die Alpha-Parameterwerte vorher zu kennen Berechnen der Autokorrelationen Nun, da wir die zweite Ordnungseigenschaften angeben, können wir verschiedene Ordnungen von AR (p) simulieren und die entsprechenden Korrelogramme zeichnen. Simulationen und Correlograms Beginnen wir mit einem AR (1) Prozess. Dies ist ähnlich wie ein zufälliger Spaziergang, außer dass Alpha1 nicht gleich Einheit haben muss. Unser Modell wird alpha1 0.6 haben. Der R-Code für die Erstellung dieser Simulation wird wie folgt gegeben: Beachten Sie, dass unsere for-Schleife von 2 bis 100, nicht 1 bis 100, als xt-1 durchgeführt wird, wenn t0 nicht indexierbar ist. Ähnlich für AR (p) - Verfahren höherer Ordnung kann t von p bis 100 in dieser Schleife reichen. Wir können die Realisierung dieses Modells und des damit verbundenen Korrelogramms mit der Layout-Funktion abbilden: Lasst uns nun versuchen, einen AR (p) Prozess an die simulierten Daten anzuzeigen, die wir gerade generiert haben, um zu sehen, ob wir die zugrunde liegenden Parameter wiederherstellen können. Sie können sich erinnern, dass wir ein ähnliches Verfahren in den Artikel über weiße Lärm und zufällige Wanderungen durchgeführt. Wie sich herausstellt, ist R ein nützliches Kommando für autoregressive Modelle. Wir können diese Methode verwenden, um uns zuerst die beste Ordnung p des Modells zu erzählen (wie von der AIC oben bestimmt) und geben uns Parameterschätzungen für das Alphai, die wir dann verwenden können, um Konfidenzintervalle zu bilden. Für die Vollständigkeit können wir die x-Serie neu erstellen: Jetzt verwenden wir den Befehl ar, um ein autoregressives Modell auf unser simuliertes AR (1) - Prozess zu setzen, wobei die Maximalwahrscheinlichkeitsschätzung (MLE) als Anpassungsverfahren verwendet wird. Wir werden zunächst die bestmöglichste Bestellung extrahieren: Der Befehl ar hat erfolgreich festgestellt, dass unser zugrunde liegendes Zeitreihenmodell ein AR (1) Prozess ist. Wir können dann die Alpha-Parameter (s) Schätzungen: Die MLE-Prozedur hat eine Schätzung, Hut 0.523, die etwas niedriger als der wahre Wert von alpha1 0.6 produziert hat. Schließlich können wir den Standardfehler (mit der asymptotischen Varianz) verwenden, um 95 Konfidenzintervalle um den zugrunde liegenden Parameter zu konstruieren. Um dies zu erreichen, erstellen wir einfach einen Vektor c (-1,96, 1,96) und multiplizieren Sie ihn dann mit dem Standardfehler: Der wahre Parameter fällt in das 95 Konfidenzintervall, wie es von der Tatsache erwartet wurde, dass wir die Realisierung aus dem Modell speziell generiert haben . Wie wäre es, wenn wir das alpha1 -0.6 ändern. Wie vorher können wir ein AR (p) - Modell mit ar: Einmal wieder erholen wir die richtige Reihenfolge des Modells, mit einem sehr guten Schätzhut -0.597 von alpha1-0.6. Wir sehen auch, dass der wahre Parameter wieder in das 95 Konfidenzintervall fällt. Wir können unseren autoregressiven Prozessen noch mehr Komplexität hinzufügen, indem wir ein Modell der Ordnung 2 simulieren. Insbesondere werden wir alpha10.666 setzen, aber auch alpha2 -0.333 setzen. Erben Sie den vollständigen Code, um die Realisierung zu simulieren und zu plotten, sowie das Korrelogramm für eine solche Serie: Wie zuvor können wir sehen, dass sich das Korrelogramm deutlich von dem des weißen Rauschens unterscheidet, wie es erwartet wird. Es gibt statistisch signifikante Peaks bei k1, k3 und k4. Wieder einmal würden wir den Befehl ar verwenden, um ein AR (p) Modell an unsere zugrunde liegende AR (2) Realisierung anzupassen. Die Prozedur ist ähnlich wie bei der AR (1) - Anpassung: Die korrekte Reihenfolge wurde wiederhergestellt und die Parameter-Schätzungen haben 0.696 und Hut -0.395 sind nicht zu weit weg von den wahren Parameterwerten von alpha10.666 und alpha2-0.333. Beachten Sie, dass wir eine Konvergenz-Warnmeldung erhalten. Beachten Sie auch, dass R tatsächlich die arima0-Funktion verwendet, um das AR-Modell zu berechnen. Auch in den nachfolgenden Artikeln sind AR (p) Modelle einfach ARIMA (p, 0, 0) Modelle und somit ein AR Modell ist ein Spezialfall von ARIMA ohne Moving Average (MA) Komponente. Nun auch mit dem arima Befehl, um Konfidenzintervalle um mehrere Parameter zu erstellen, weshalb wir uns vernachlässigt haben, es hier zu tun. Jetzt, wo wir einige simulierte Daten erstellt haben, ist es Zeit, die AR (p) - Modelle auf finanzielle Asset-Zeitreihen anzuwenden. Financial Data Amazon Inc. Lets beginnen mit dem Erwerb der Aktienkurs für Amazon (AMZN) mit quantmod wie im letzten Artikel: Die erste Aufgabe ist es, immer den Preis für eine kurze visuelle Inspektion zu plotten. In diesem Fall gut mit den täglichen Schlusskursen: Youll bemerken, dass Quantmod fügt einige Formatierung für uns, nämlich das Datum, und ein etwas hübscheres Diagramm als die üblichen R-Charts: Wir werden jetzt die logarithmischen Rückkehr von AMZN und dann die erste nehmen - Unterschied zwischen der Serie, um die ursprüngliche Preisreihe von einer nicht stationären Serie in eine (potentiell) stationäre zu konvertieren. Dies ermöglicht es uns, Äpfel mit Äpfeln zwischen Aktien, Indizes oder anderen Vermögenswerten zu vergleichen, um sie in späteren multivariaten Statistiken zu verwenden, wie zum Beispiel bei der Berechnung einer Kovarianzmatrix. Wenn Sie eine ausführliche Erklärung wünschen, warum Log-Retouren vorzuziehen sind, schauen Sie sich diesen Artikel bei Quantivity an. Lets erstellen eine neue Serie, amznrt. Um unsere differenzierten Log-Renditen zu halten: Wieder einmal können wir die Serie zeichnen: In diesem Stadium wollen wir das Korrelogramm zeichnen. Wollte sehen, ob die differenzierte Serie wie weißes Rauschen aussieht. Wenn es dann nicht ist, gibt es eine unerklärliche serielle Korrelation, die durch ein autoregressives Modell erklärt werden könnte. Wir bemerken einen statistisch signifikanten Peak bei k2. Daher gibt es eine vernünftige Möglichkeit einer unerklärlichen seriellen Korrelation. Seien Sie sich bewusst, dass dies aufgrund der Probenahme Bias. Als solches können wir versuchen, ein AR (p) - Modell an die Serie anzupassen und Konfidenzintervalle für die Parameter zu erzeugen: Die Anpassung des ar autoregressiven Modells an die erste Reihenfolge differenzierte Reihe von Log-Preisen erzeugt ein AR (2) - Modell mit Hut -0.0278 Und Hut -0.0687. Ive auch die aysmptotische Varianz ausgeben, damit wir Standardfehler für die Parameter berechnen und Konfidenzintervalle erzeugen können. Wir wollen sehen, ob null Teil des 95 Konfidenzintervalls ist, als ob es ist, es reduziert unser Vertrauen, dass wir einen wahren zugrunde liegenden AR (2) Prozess für die AMZN Serie haben. Um die Konfidenzintervalle auf der 95-Ebene für jeden Parameter zu berechnen, verwenden wir die folgenden Befehle. Wir nehmen die Quadratwurzel des ersten Elements der asymptotischen Varianzmatrix, um einen Standardfehler zu erzeugen, dann schaffen Sie Konfidenzintervalle, indem wir sie mit -1.96 bzw. 1.96 für die 95-Ebene multiplizieren: Beachten Sie, dass dies bei der Verwendung der Arima-Funktion einfacher wird , Aber gut warten, bis Teil 2 vor der Einführung es richtig. So können wir sehen, dass für alpha1 Null innerhalb des Konfidenzintervalls enthalten ist, während für alpha2 Null nicht im Konfidenzintervall enthalten ist. Daher sollten wir sehr vorsichtig sein, wenn wir denken, dass wir wirklich ein zugrunde liegendes generatives AR (2) Modell für AMZN haben. Insbesondere stellen wir fest, dass das autoregressive Modell die Volatilitätsclusterung nicht berücksichtigt, was zu einer Clusterung der seriellen Korrelation in finanziellen Zeitreihen führt. Wenn wir die ARCH - und GARCH-Modelle in späteren Artikeln betrachten, werden wir dies berücksichtigen. Wenn wir die nächste Arima-Funktion im nächsten Artikel nutzen, werden wir Vorhersagen der täglichen Log-Preisreihen machen, um uns erlauben zu können, Trading-Signale zu erstellen. SampP500 US Equity Index Neben den einzelnen Aktien können wir auch den US Equity Index, den SampP500, berücksichtigen. Lets bewerben alle vorherigen Befehle auf diese Serie und produzieren die Plots wie bisher: Wir können die Preise aufzeichnen: Wie schon früher, schaffen Sie den ersten Auftragsunterschied der Log-Schlusspreise: Noch einmal können wir die Serie zeichnen: Es ist klar Aus dieser Grafik, dass die Volatilität nicht rechtzeitig stationär ist. Dies spiegelt sich auch in der Handlung des Korrelogramms wider. Es gibt viele Peaks, einschließlich k1 und k2, die statistisch signifikant sind über ein weißes Rauschenmodell hinaus. Darüber hinaus sehen wir Beweise für Langzeit-Prozesse, da es einige statistisch signifikante Peaks bei k16, k18 und k21 gibt: Letztendlich benötigen wir ein anspruchsvolleres Modell als ein autoregressives Modell der Ordnung p. Doch in diesem Stadium können wir noch versuchen, ein solches Modell anzupassen. Lets sehen, was wir bekommen, wenn wir es tun: Mit ar produziert ein AR (22) - Modell, dh ein Modell mit 22 Nicht-Null-Parametern Was sagt uns das. Es ist indikativ, dass es in der seriellen Korrelation wahrscheinlich viel komplexer ist als Ein einfaches lineares Modell der vergangenen Preise kann wirklich erklären. Allerdings wussten wir das schon, weil wir sehen können, dass es in der Volatilität eine signifikante serielle Korrelation gibt. Zum Beispiel betrachten wir die sehr volatile Periode um 2008. Dies motiviert den nächsten Satz von Modellen, nämlich die Moving Average MA (q) und die Autoregressive Moving Average ARMA (p, q). Gut lernen über diese beiden in Teil 2 dieses Artikels. Wie wir immer wieder erwähnen, führen wir uns letztlich zur ARIMA - und GARCH-Familie von Modellen, die beide eine viel bessere Anpassung an die serielle Korrelationskomplexität des Samp500 bieten. This will allows us to improve our forecasts significantly and ultimately produce more profitable strategies. Just Getting Started with Quantitative TradingAutoregressive Moving-Average Simulation (First Order) The Demonstration is set such that the same random series of points is used no matter how the constants and are varied. Wenn jedoch die Taste quotrandomizequot gedrückt wird, wird eine neue Zufallsreihe erzeugt und verwendet. Wenn man die zufällige Serie identifiziert, kann der Benutzer genau die Effekte auf die ARMA-Reihe von Änderungen in den beiden Konstanten sehen. Die Konstante ist auf (-1,1) begrenzt, da sich die Divergenz der ARMA-Serie ergibt. Die Demonstration ist nur für einen ersten Auftrag. Zusätzliche AR-Begriffe würden es ermöglichen, komplexere Serien zu erzeugen, während zusätzliche MA-Begriffe die Glättung erhöhen würden. Für eine detaillierte Beschreibung der ARMA-Prozesse siehe z. B. G. Box, G. M. Jenkins und G. Reinsel, Zeitreihenanalyse: Prognose und Kontrolle. 3. Aufl. Englewood Cliffs, NJ: Prentice-Hall, 1994. RELATED LINKS
No comments:
Post a Comment