ARMA
In der Statistik sind ARMA- Modelle ( autoregressive Modelle und gleitender Durchschnitt ) oder auch das Box- Jenkins- Modell die Hauptmodelle von Zeitreihen .
Bei einer Zeitreihe X t ist das ARMA-Modell ein Werkzeug, um die zukünftigen Werte dieser Reihe zu verstehen und möglicherweise vorherzusagen. Das Modell besteht aus zwei Teilen: einem autoregressiven Teil (AR) und einem gleitenden Durchschnittsteil (MA). Das Modell wird allgemein als ARMA ( p , q ) bezeichnet, wobei p die Reihenfolge des AR-Teils und q die Reihenfolge des MA-Teils ist.
Definition - Ein autoregressives und gleitendes Durchschnittsmodell von Ordnungen ( p , q ) (abgekürzt als ARMA ( p , q ) ) ist ein diskreter zeitlicher Prozess ( X t , t ∈ ∈) , der Folgendes erfüllt:
X.t=εt+∑ich=1pφichX.t- -ich+∑ich=1qθichεt- -ich{\ displaystyle X_ {t} = \ varepsilon _ {t} + \ sum _ {i = 1} ^ {p} \ varphi _ {i} X_ {ti} + \ sum _ {i = 1} ^ {q} \ theta _ {i} \ varepsilon _ {ti}}
wobei φ i und θ i die Modellparameter sind und ε i die Fehlerterme sind.
Ein autoregressives Modell AR ( p ) ist ein ARMA ( p , 0)
Ein gleitendes Durchschnittsmodell MA ( q ) ist ein ARMA (0, q )
Autoregressives Modell
Ein autoregressives Modell der Ordnung p , abgekürzt AR ( p ), wird geschrieben:
X.t=vs.+∑ich=1pφichX.t- -ich+εt{\ displaystyle X_ {t} = c + \ sum _ {i = 1} ^ {p} \ varphi _ {i} X_ {ti} + \ varepsilon _ {t} \,}
Dabei sind die Parameter des Modells ein konstantes und ein weißes Rauschen . Die Konstante wird in der Literatur oft weggelassen, wobei der Prozess dann als zentriert bezeichnet wird.
φ1,...,φp{\ displaystyle \ varphi _ {1}, \ ldots, \ varphi _ {p}}vs.{\ displaystyle c}εt{\ displaystyle \ varepsilon _ {t}}
Zusätzliche Einschränkungen der Parameter sind erforderlich, um die Stationarität zu gewährleisten . Für das AR (1) -Modell werden beispielsweise Prozesse wie | verwendet φ 1 | ≥ 1 sind nicht stationär.
Beispiel: ein AR-Prozess (1)
Ein AR (1) -Modell ist gegeben durch:
X.t=vs.+φX.t- -1+εt{\ displaystyle X_ {t} = c + \ varphi X_ {t-1} + \ varepsilon _ {t} \,}
Wo ist weißes Rauschen, mit Null Mittelwert und Varianz .
εt{\ displaystyle \ varepsilon _ {t}}σ2{\ displaystyle \ sigma ^ {2}}
- Wenn , ist das Modell in der Varianz stationär .|φ|<1{\ displaystyle | \ varphi | <1}
- Wenn , dann weist der Prozess eine Einheitswurzel (in) auf , was bedeutet, dass es sich um einen zufälligen Spaziergang handelt und die Varianz nicht stationär ist.φ=1{\ displaystyle \ varphi = 1}
- Nehmen wir also an . Die Erwartung , die Varianz und die Autokovarianz des Prozesses sind jeweils gleich:|φ|<1{\ displaystyle | \ varphi | <1}
E.[X.t]]=vs.1- -φ{\ displaystyle \ mathrm {E} \ left [X_ {t} \ right] = {\ frac {c} {1- \ varphi}}}
V.beimr[X.t]]=σ21- -φ2{\ displaystyle \ mathrm {Var} \ left [X_ {t} \ right] = {\ frac {\ sigma ^ {2}} {1- \ varphi ^ {2}}}}
B.nicht=VSÖv[X.t,X.t- -nicht]]=σ21- -φ2φ|nicht|{\ displaystyle B_ {n} = \ mathrm {Cov} \ left [X_ {t}, X_ {tn} \ right] = {\ frac {\ sigma ^ {2}} {1- \ varphi ^ {2}} } \ varphi ^ {| n |}}
Nehmen heißt, einen Durchschnitt von Null zu haben. Wir führen eine Abklingrate der Autokovarianzfunktion ein
vs.=0{\ displaystyle c = 0}τ=- -1/.ln((φ){\ displaystyle \ tau = -1 / \ ln (\ varphi)}
Die spektrale Leistungsdichte ist die Fourier-Transformation der Autokovarianzfunktion. Im diskreten Fall heißt das:
Φ((ω)=12π∑nicht=- -∞∞B.nichte- -ichωnicht=12π((σ21+φ2- -2φcos((ω)).{\ displaystyle \ Phi (\ omega) = {\ frac {1} {\ sqrt {2 \ pi}} \, \ sum _ {n = - \ infty} ^ {\ infty} B_ {n} e ^ { -i \ omega n} = {\ frac {1} {\ sqrt {2 \ pi}}} \, \ left ({\ frac {\ sigma ^ {2}} {1+ \ varphi ^ {2} -2 \ varphi \ cos (\ omega)}} \ right).}Diese Entwicklung ist aufgrund des Vorhandenseins des Kosinus-Terms im Nenner periodisch. Unter der Annahme, dass die Abtastzeit ( ) kleiner als die Abklingrate ( ) ist, können wir eine kontinuierliche Näherung verwenden von :
Δt=1{\ displaystyle \ Delta t = 1}τ{\ displaystyle \ tau}B.nicht{\ displaystyle B_ {n}}
B.((t)≈σ21- -φ2φ|t|{\ displaystyle B (t) \ approx {\ frac {\ sigma ^ {2}} {1- \ varphi ^ {2}}} \, \, \ varphi ^ {| t |}}welches eine Lorentzsche Form für die spektrale Dichte darstellt:
Φ((ω)=12πσ21- -φ2γπ((γ2+ω2){\ displaystyle \ Phi (\ omega) = {\ frac {1} {\ sqrt {2 \ pi}}} \, {\ frac {\ sigma ^ {2}} {1- \ varphi ^ {2}}} \, {\ frac {\ gamma} {\ pi (\ gamma ^ {2} + \ omega ^ {2})}}wo ist die Winkelfrequenz zugeordnet .
γ=1/.τ{\ displaystyle \ gamma = 1 / \ tau}τ{\ displaystyle \ tau}
Ein alternativer Ausdruck für kann durch Ersetzen durch in der Definitionsgleichung abgeleitet werden. Durch Fortsetzung dieser Manipulation liefert N- mal
X.t{\ displaystyle X_ {t}}X.t- -1{\ displaystyle X_ {t-1}}vs.+φX.t- -2+εt- -1{\ displaystyle c + \ varphi X_ {t-2} + \ varepsilon _ {t-1}}
X.t=vs.∑k=0NICHT- -1φk+φNICHTX.t- -NICHT+∑k=0NICHT- -1φkεt- -k.{\ displaystyle X_ {t} = c \ sum _ {k = 0} ^ {N-1} \ varphi ^ {k} + \ varphi ^ {N} X_ {tN} + \ sum _ {k = 0} ^ {N-1} \ varphi ^ {k} \ varepsilon _ {tk}.}Wenn N sehr groß wird, nähert es sich 0 und:
φNICHT{\ displaystyle \ varphi ^ {N}}
X.t=vs.1- -φ+∑k=0∞φkεt- -k.{\ displaystyle X_ {t} = {\ frac {c} {1- \ varphi}} + \ sum _ {k = 0} ^ {\ infty} \ varphi ^ {k} \ varepsilon _ {tk}.}Wir können sehen, dass dies das weiße Rauschen ist, das mit dem Kernel verschlungen ist, plus ein konstanter Mittelwert. Wenn das weiße Rauschen Gaußsch ist , ist dies ebenfalls ein normaler Vorgang. Andernfalls besagt der zentrale Grenzwertsatz , dass dies ungefähr normal ist, wenn die Einheit nahe ist.
X.t{\ displaystyle X_ {t}}φk{\ displaystyle \ varphi ^ {k}}X.t{\ displaystyle X_ {t}}X.t{\ displaystyle X_ {t}}φ{\ displaystyle \ varphi}
Schätzung der AR-Parameter
Das Modell AR ( p ) ist gegeben durch
X.t=∑ich=1pφichX.t- -ich+εt.{\ displaystyle X_ {t} = \ sum _ {i = 1} ^ {p} \ varphi _ {i} X_ {ti} + \ varepsilon _ {t}. \,}Die zu schätzenden Parameter sind wobei i = 1,…, p . Es gibt eine direkte Entsprechung zwischen diesen Parametern und der Funktion der Kovarianz (und damit der Autokorrelation), und man kann die Parameter durch Invertieren dieser Beziehungen ableiten. Dies sind die Yule- Walker- Gleichungen :
φich{\ displaystyle \ varphi _ {i}}
γm=∑k=1pφkγm- -k+σε2δm{\ displaystyle \ gamma _ {m} = \ sum _ {k = 1} ^ {p} \ varphi _ {k} \ gamma _ {mk} + \ sigma _ {\ varepsilon} ^ {2} \ delta _ { m}}wobei m = 0,…, p ist , was in allen p + 1-Gleichungen ergibt. Der Koeffizient ist die Autokorrelationsfunktion von X , ist die Abweichung (Standardabweichung) des weißen Rauschens und δ m ist das Kronecker-Symbol .
γm{\ displaystyle \ gamma _ {m}}σε{\ displaystyle \ sigma _ {\ varepsilon}}
Der letzte Teil der Gleichung ist ungleich Null, wenn m = 0 ist; Unter Verwendung von m > 0 wird die vorherige Gleichung als Matrixsystem geschrieben
[γ1γ2γ3⋮]]=[γ0γ- -1γ- -2...γ1γ0γ- -1...γ2γ1γ0...⋮⋮⋮⋱]][φ1φ2φ3⋮]]{\ displaystyle {\ begin {bmatrix} \ gamma _ {1} \\\ gamma _ {2} \\\ gamma _ {3} \\\ vdots \\\ end {bmatrix}} = {\ begin {bmatrix} \ gamma _ {0} & \ gamma _ {- 1} & \ gamma _ {- 2} & \ dots \\\ gamma _ {1} & \ gamma _ {0} & \ gamma _ {- 1} & \ Punkte \\\ gamma _ {2} & \ gamma _ {1} & \ gamma _ {0} & \ Punkte \\\ vdots & \ vdots & \ vdots & \ ddots \\\ end {bmatrix}} {\ begin {bmatrix} \ varphi _ {1} \\\ varphi _ {2} \\\ varphi _ {3} \\\ vdots \\\ end {bmatrix}}}Für m = 0 haben wir
γ0=∑k=1pφkγ- -k+σε2{\ displaystyle \ gamma _ {0} = \ sum _ {k = 1} ^ {p} \ varphi _ {k} \ gamma _ {- k} + \ sigma _ {\ varepsilon} ^ {2}}das hilft zu finden .
σε2{\ displaystyle \ sigma _ {\ varepsilon} ^ {2}}
Die Yule-Walker-Gleichungen bieten eine Möglichkeit, die Parameter des AR ( p ) -Modells zu schätzen , indem theoretische Kovarianzen durch geschätzte Werte ersetzt werden. Eine Möglichkeit , diese Werte zu erhalten , ist es, die berücksichtigen lineare Regression von X t auf seinen p ersten Lags.
Erhalten der Yule-Walker-Gleichungen
Die definierende Gleichung des AR-Prozesses lautet
X.t=∑ich=1pφichX.t- -ich+εt.{\ displaystyle X_ {t} = \ sum _ {i = 1} ^ {p} \ varphi _ {i} \, X_ {ti} + \ varepsilon _ {t}. \,}Indem wir die beiden Mitglieder mit X t - m multiplizieren und die Erwartung nehmen, erhalten wir
E.[X.tX.t- -m]]=E.[∑ich=1pφichX.t- -ichX.t- -m]]+E.[εtX.t- -m]].{\ displaystyle E [X_ {t} X_ {tm}] = E \ left [\ sum _ {i = 1} ^ {p} \ varphi _ {i} \, X_ {ti} X_ {tm} \ right] + E [\ varepsilon _ {t} X_ {tm}].}Nun stellt sich heraus, dass E [ X t X t - m ] = γ m per Definition der Autokovarianzfunktion ist. Die Terme des weißen Rauschens sind unabhängig voneinander und außerdem ist X t - m unabhängig von & epsi; t, wobei m größer als Null ist. Für m > 0 ist E [& epsi; t X t - m ] = 0. Für m = 0 ist
E.[εtX.t]]=E.[εt((∑ich=1pφichX.t- -ich+εt)]]=∑ich=1pφichE.[εtX.t- -ich]]+E.[εt2]]=0+σε2,{\ displaystyle E [\ varepsilon _ {t} X_ {t}] = E \ left [\ varepsilon _ {t} \ left (\ sum _ {i = 1} ^ {p} \ varphi _ {i} \, X_ {ti} + \ varepsilon _ {t} \ right) \ right] = \ sum _ {i = 1} ^ {p} \ varphi _ {i} \, E [\ varepsilon _ {t} \, X_ { ti}] + E [\ varepsilon _ {t} ^ {2}] = 0+ \ sigma _ {\ varepsilon} ^ {2},}Jetzt haben wir für m ≥ 0,
γm=E.[∑ich=1pφichX.t- -ichX.t- -m]]+σε2δm.{\ displaystyle \ gamma _ {m} = E \ left [\ sum _ {i = 1} ^ {p} \ varphi _ {i} \, X_ {ti} X_ {tm} \ right] + \ sigma _ { \ varepsilon} ^ {2} \ delta _ {m}.}Andernfalls,
E.[∑ich=1pφichX.t- -ichX.t- -m]]=∑ich=1pφichE.[X.tX.t- -m+ich]]=∑ich=1pφichγm- -ich,{\ displaystyle E \ left [\ sum _ {i = 1} ^ {p} \ varphi _ {i} \, X_ {ti} X_ {tm} \ right] = \ sum _ {i = 1} ^ {p } \ varphi _ {i} \, E [X_ {t} X_ {tm + i}] = \ sum _ {i = 1} ^ {p} \ varphi _ {i} \, \ gamma _ {mi}, }}was die Yule-Walker-Gleichungen gibt:
γm=∑ich=1pφichγm- -ich+σε2δm.{\ displaystyle \ gamma _ {m} = \ sum _ {i = 1} ^ {p} \ varphi _ {i} \ gamma _ {mi} + \ sigma _ {\ varepsilon} ^ {2} \ delta _ { m}.}für m ≥ 0. Für m <0,
γm=γ- -m=∑ich=1pφichγ|m|- -ich+σε2δm.{\ displaystyle \ gamma _ {m} = \ gamma _ {- m} = \ sum _ {i = 1} ^ {p} \ varphi _ {i} \ gamma _ {| m | -i} + \ sigma _ {\ varepsilon} ^ {2} \ delta _ {m}.}
Modell mit gleitendem Durchschnitt
Die MA ( q ) -Notation bezieht sich auf das gleitende Durchschnittsmodell der Ordnung q :
X.t=εt+∑ich=1qθichεt- -ich{\ displaystyle X_ {t} = \ varepsilon _ {t} + \ sum _ {i = 1} ^ {q} \ theta _ {i} \ varepsilon _ {ti} \,}wobei θ 1 ,…, θ q die Modellparameter sind und ε t , ε t-1 ,… wieder Fehlerterme sind.
Ein Hinweis zu Fehlerbedingungen
Die Fehlerterme & egr; t werden im Allgemeinen als unabhängig und identisch verteilt (iid) gemäß einer Normalverteilung des Mittelwerts Null angenommen: & egr; t ~ N (0, & sgr; 2 ), wobei & sgr; 2 die Varianz ist. Diese Annahmen können gelockert werden, dies würde jedoch die Eigenschaften des Modells ändern, z. B. die Annahme des einzelnen iid-Zeichens
Spezifikation in Bezug auf den Verzögerungsoperator
ARMA-Modelle können in Form von L geschrieben werden , dem Verzögerungsoperator . Das autoregressive Modell AR ( p ) wird geschrieben
εt=((1- -∑ich=1pφichL.ich)X.t=φX.t{\ displaystyle \ varepsilon _ {t} = \ left (1- \ sum _ {i = 1} ^ {p} \ varphi _ {i} L ^ {i} \ right) X_ {t} = \ varphi X_ { t} \,}wobei φ das Polynom darstellt
φ=1- -∑ich=1pφichL.ich.{\ displaystyle \ varphi = 1- \ sum _ {i = 1} ^ {p} \ varphi _ {i} L ^ {i}. \,}Für das Modell MA ( q ) mit gleitendem Durchschnitt haben wir
X.t=((1+∑ich=1qθichL.ich)εt=θεt{\ displaystyle X_ {t} = \ left (1+ \ sum _ {i = 1} ^ {q} \ theta _ {i} L ^ {i} \ right) \ varepsilon _ {t} = \ theta \ varepsilon _ {t} \,}wobei θ das Polynom darstellt
θ=1+∑ich=1qθichL.ich.{\ displaystyle \ theta = 1 + \ sum _ {i = 1} ^ {q} \ theta _ {i} L ^ {i}. \,}Durch Ableiten der beiden Aspekte leiten wir schließlich das Schreiben des ARMA-Modells ab ( p , q ):
((1- -∑ich=1pφichL.ich)X.t=((1+∑ich=1qθichL.ich)εt{\ displaystyle \ left (1- \ sum _ {i = 1} ^ {p} \ varphi _ {i} L ^ {i} \ right) X_ {t} = \ left (1+ \ sum _ {i = 1} ^ {q} \ theta _ {i} L ^ {i} \ right) \ varepsilon _ {t} \,}wo kürzer:
φX.t=θεt.{\ displaystyle \ varphi X_ {t} = \ theta \ varepsilon _ {t}. \,}
Modell montieren
Die ARMA-Modelle können nach Auswahl der Ordnungen p und q nach der Methode der kleinsten Quadrate an Daten angepasst werden : Wir suchen nach Parametern, die die Summe der Quadrate der Residuen minimieren. Die kleinsten p- und q- Werte werden im Allgemeinen als gute Praxis angesehen (Prinzip der Sparsamkeit ). Für ein reines AR-Modell ermöglichen die Yule-Walker-Gleichungen die Anpassung.
Anmerkungen und Referenzen
Literaturverzeichnis
-
(fr) Jean-Jacques Droesbeke, Bernard Fichet, Philippe Tassi, Chronologische Reihe - Theorie und Praxis von ARIMA-Modellen , Economica , 1989 ( ISBN 2-7178-1549-X )
-
(en) George EP Box , Gwilym Jenkins und Gregory C. Reinsel, Zeitreihenanalyse: Prognose und Kontrolle , dritte Ausgabe. Prentice-Hall, 1994.
-
(en) Terence C. Mills, Zeitreihentechniken für Ökonomen , Cambridge University Press, 1990.
-
(en) Donald B. Percival und Andrew T. Walden, Spektralanalyse für physikalische Anwendungen. Cambridge University Press, 1993.
-
(en) Sudhakar M. Pandit und Shien-Ming Wu, Zeitreihen- und Systemanalyse mit Anwendungen. John Wiley & Sons, 1983.
-
(en) James D. Hamilton, Zeitreihenanalyse , Princeton University Press, 1994
<img src="https://fr.wikipedia.org/wiki/Special:CentralAutoLogin/start?type=1x1" alt="" title="" width="1" height="1" style="border: none; position: absolute;">