Saturday 16 December 2017

Przenoszenie średnia proces wykład notatki


Krótkie wprowadzenie do współczesnej serii czasowej Definicja Szeregi czasowe to funkcja losowa x t argumentu t w zbiorze T. Innymi słowy szereg czasowy jest rodziną zmiennych losowych. x t-1. x t. x t1. odpowiadający wszystkim elementom w zbiorze T, gdzie T ma być zbiorem nieograniczonym, nieskończonym. Definicja Obserwowany szereg czasowy t T e T o T traktowany jest jako część jednej realizacji funkcji losowej x t. Nieskończony zestaw możliwych realizacji, które można było zaobserwować, nazywa się zespołem. Aby bardziej rygorystycznie rzecz ujmować, szereg czasowy (lub funkcja losowa) jest rzeczywistą funkcją x (w, t) dwóch zmiennych w i t, gdzie wW i t T. Jeśli ustalimy wartość w. mamy prawdziwą funkcję x (t w) czasu t, która jest realizacją szeregów czasowych. Jeśli ustalimy wartość t, mamy zmienną losową x (w t). Dla danego punktu w czasie istnieje rozkład prawdopodobieństwa na x. Zatem funkcja losowa x (w, t) może być traktowana jako rodzina zmiennych losowych lub jako rodzina realizacji. Definicja Definiujemy funkcję rozkładu zmiennej losowej w danej t 0 jako P o) x (x). Podobnie możemy zdefiniować wspólny rozkład dla n zmiennych losowych Punkty, które odróżniają analizę szeregów czasowych od zwykłych analiz statystycznych, są następujące (1) Zasadniczą rolę odgrywa zależność między obserwacjami w różnych chronologicznych momentach w czasie. Innymi słowy, kolejność obserwacji jest ważna. W zwykłej analizie statystycznej zakłada się, że obserwacje są wzajemnie niezależne. (2) Domena t jest nieskończona. (3) Musimy wywnioskować z jednej realizacji. Realizacja zmiennej losowej można zaobserwować tylko raz w każdym momencie. W analizie wielowymiarowej mamy wiele obserwacji dotyczących skończonej liczby zmiennych. Ta krytyczna różnica wymaga założenia stacjonarności. Definicja Funkcja losowa x t jest uważana za ściśle stacjonarną, jeśli wszystkie funkcje rozkładu skończonego wymiaru określające x t pozostają takie same, nawet jeśli cała grupa punktów t 1. t 2. t n jest przesuwane wzdłuż osi czasu. Oznacza to, że dla dowolnych liczb całkowitych t 1. t 2. t n i k. Graficznie można sobie wyobrazić realizację serii stacjonarnej jako mającej nie tylko ten sam poziom w dwóch różnych przedziałach, ale także tę samą funkcję rozkładu, aż do parametrów, które ją definiują. Założenie stacjonarności czyni nasze życie prostszym i mniej kosztownym. Bez stacjonarności musielibyśmy często próbować proces w każdym punkcie czasowym, aby uzyskać charakterystykę funkcji rozkładu we wcześniejszej definicji. Stacjonarność oznacza, że ​​możemy skupić naszą uwagę na kilku najprostszych funkcjach numerycznych, tj. Momentach dystrybucji. Centralne momenty są określone przez Definicję (i) Średnia wartość szeregu czasowego t jest t j. Momentem pierwszego rzędu. (ii) Funkcja autokowariancji t to t j. drugi moment wokół średniej. Jeśli ts, masz wariancję x t. Będziemy używać do oznaczenia autokowariancji stacjonarnej serii, gdzie k oznacza różnicę między t i s. (iii) Funkcja autokorelacji (ACF) t jest używana do oznaczenia autokorelacji stacjonarnej serii, gdzie k oznacza różnicę między t i s. (iv) Częściowa autokorelacja (PACF). f kk. jest korelacją między z t i z tk po usunięciu ich wzajemnej liniowej zależności od zmiennych pośrednich z t1. z t2. z tk-1. Jednym prostym sposobem obliczenia częściowej autokorelacji między z t i z tk jest przeprowadzenie dwóch regresji, a następnie obliczenie korelacji między dwoma resztkowymi wektorami. Lub po zmierzeniu zmiennych jako odchyleń od ich średnich, częściowa autokorelacja może być znaleziona jako współczynnik regresji LS dla z t w modelu, w którym kropka nad zmienną wskazuje, że jest mierzona jako odchylenie od jej średniej. (v) Równania Yule-Walkera zapewniają istotną zależność pomiędzy częściowymi autokorelacjami a autokorelacjami. Pomnóż obie strony równania 10 przez z tk-j i spełnij oczekiwania. Ta operacja daje nam następujące równanie różnicowe w autokowariancji lub, jeśli chodzi o autokorelacje Ta pozornie prosta reprezentacja jest naprawdę potężnym wynikiem. Mianowicie, za j1,2. k możemy napisać pełny układ równań, znany jako równania Yule-Walker, Z algebry liniowej wiadomo, że macierz r s ma pełną rangę. Dlatego możliwe jest stosowanie reguły Cramerów kolejno dla k1,2. aby rozwiązać system częściowych autokorelacji. Pierwsze trzy to Mamy trzy ważne wyniki w serii ściśle stacjonarnej. Implikacją jest to, że możemy użyć dowolnej skończonej realizacji sekwencji do oszacowania średniej. Druga . jeśli t jest ściśle stacjonarne, a E t 2 lt. Sugeruje to, że autokowariancja zależy tylko od różnicy między t i s, a nie od ich momentu chronologicznego. W obliczeniach autokowariancji moglibyśmy użyć dowolnej pary interwałów, o ile czas między nimi był stały. I możemy użyć dowolnej skończonej realizacji danych do oszacowania autokowariancji. Po trzecie, funkcja autokorelacji w przypadku ścisłej stacjonarności jest podawana przez. Sugeruje się, że autokorelacja zależy również tylko od różnicy między ti s, i znowu mogą być oszacowane przez dowolną skończoną realizację danych. Jeśli naszym celem jest oszacowanie parametrów opisujących możliwe realizacje szeregów czasowych, to być może ścisła stacjonarność jest zbyt restrykcyjna. Na przykład, jeśli średnia i kowariancje x t są stałe i niezależne od chronologicznego punktu w czasie, to być może nie jest dla nas ważne, aby funkcja rozkładu była taka sama dla różnych przedziałów czasu. Definicja Funkcja losowa jest stacjonarna w szerokim sensie (lub słabo stacjonarna lub stacjonarna w sensie Khinchina lub kowariancja stacjonarna), jeśli m 1 (t) mi m 11 (t, s). Ścisła stacjonarność sama w sobie nie oznacza słabej stacjonarności. Słaba stacjonarność nie oznacza ścisłej stacjonarności. Ścisła stacjonarność z E t 2 lt oznacza słabą stacjonarność. Twierdzenia Ergodyczne dotyczą kwestii niezbędnych i wystarczających warunków do wnioskowania z jednej realizacji szeregu czasowego. Zasadniczo sprowadza się to do przyjęcia słabej stacjonarności. Twierdzenie Jeżeli t jest słabo stacjonarne ze średnią m i funkcją kowariancji, to znaczy, że dla dowolnego danego e gt 0 i h gt 0 istnieje pewna liczba T o taka, że ​​dla wszystkich T gt T o. wtedy i tylko wtedy, gdy Warunkiem koniecznym i wystarczającym jest wymieranie autokowiarian, w którym to przypadku średnia próby stanowi spójny estymator średniej populacji. Wniosek Jeśli t jest słabo stacjonarne z E tk xt 2 lt dla dowolnego t, a E tk xtx tsk x ts jest niezależne od t dla dowolnej liczby całkowitej s, to wtedy i tylko wtedy, gdy A Konsekwencją następstwa jest założenie, że xtx tk jest słabo stacjonarny. Twierdzenie Ergodyczne nie jest niczym więcej jak prawem wielkich liczb, gdy obserwacje są skorelowane. Ktoś mógłby zapytać w tym miejscu o praktyczne implikacje stacjonarności. Najczęstszym zastosowaniem technik szeregów czasowych jest modelowanie danych makroekonomicznych, zarówno teoretycznych, jak i ateistycznych. Jako przykład tego pierwszego można mieć model mnożnika-akceleratora. Aby model był nieruchomy, parametry muszą mieć określone wartości. Test modelu polega wówczas na zebraniu odpowiednich danych i oszacowaniu parametrów. Jeżeli oszacowania nie są zgodne ze stacjonarnością, wówczas należy ponownie przemyśleć model teoretyczny lub model statystyczny, lub oba. Mamy teraz dość maszyn, aby zacząć mówić o modelowaniu jednokierunkowych danych szeregów czasowych. Proces składa się z czterech etapów. 1. budowanie modeli z wiedzy teoretycznej i teoretycznej 2. identyfikacja modeli na podstawie danych (obserwowanych serii) 3. dopasowanie modeli (oszacowanie parametrów modelu (ów)) 4. sprawdzenie modelu Jeśli w czwartym kroku nie jesteśmy zadowolony, że wróciliśmy do pierwszego kroku. Proces jest iteracyjny, dopóki dalsze sprawdzanie i ponowna certyfikacja nie przyniosą dalszej poprawy wyników. Definicja diagramu Niektóre proste operacje obejmują: Operator przesunięcia wstecznego Bx tx t-1 Operator do przodu Fx tx t1 Operator różnicy 1 - B xtxt - x t-1 Operator różnicy zachowuje się w sposób zgodny ze stałą w nieskończonej serii . Oznacza to, że jego odwrotnością jest granica nieskończonej sumy. Mianowicie, -1 (1-B) -1 1 (1-B) 1BB 2. Operator integrujący S -1 Ponieważ jest to odwrotność operatora różnicy, operator integracji służy do konstruowania sumy. BUDOWANIE MODELU W tej sekcji przedstawiamy krótki przegląd najczęstszych rodzajów modeli szeregów czasowych. Na podstawie wiedzy na temat procesu generowania danych wybiera się klasę modeli do identyfikacji i oceny z następujących możliwości. Definicja Załóżmy, że Ex t m jest niezależne od t. Model taki jak z cechami nazywa się autoregresyjnym modelem porządku p, AR (p). Definicja Jeśli zmienna zależna od czasu (proces stochastyczny) t spełnia, wówczas t odpowiada właściwości Markowa. Na LHS oczekiwanie uwarunkowane jest nieskończoną historią x t. Na RHS jest on uwarunkowany tylko w części historii. Z definicji wynika, że ​​model AR (p) jest zgodny z własnością Markowa. Korzystając z operatora wstecznego przesunięcia możemy napisać nasz model AR jako twierdzenie. Warunkiem koniecznym i wystarczającym do tego, aby model AR (p) był stacjonarny, jest to, że wszystkie korzenie wielomianu leżą poza okręgiem koła. Przykład 1 Rozważmy AR (1) Jedynym pierwiastkiem z 1 - f 1 B 0 jest B 1 f 1. Warunek stacjonarności wymaga tego. Jeśli wtedy obserwowana seria okaże się bardzo szalona. Na przykład. rozważmy, w którym termin szumu białego ma rozkład normalny ze średnią zerową i wariancją jednej. Obserwacje zmieniają znak prawie przy każdej obserwacji. Jeśli, z drugiej strony, obserwowana seria będzie znacznie płynniejsza. W tej serii obserwacja ma tendencję do przekraczania 0, jeśli jej poprzednik był powyżej zera. Wariancja e t jest s 2 dla wszystkich t. Wariancja x t. kiedy ma on zero średnie, jest podane przez Ponieważ seria jest stacjonarna, możemy pisać. Stąd funkcja autokowariancji z serii AR (1) jest, zakładając bez utraty ogólności m 0 Aby zobaczyć, jak to wygląda pod względem parametrów AR, skorzystamy z faktu, że możemy napisać xt w następujący sposób Mnożenie przez x tk i przyjmowanie oczekiwań Zauważ, że autokowiary wymierają, gdy rośnie. Funkcja autokorelacji to autokowariancja podzielona przez wariancję terminu szumu białego. Lub,. Stosując wcześniejsze formuły Yule-Walker dla częściowych autokorelacji, które mamy Dla AR (1) autokorelacje wymierają wykładniczo, a częściowe autokorelacje wykazują szczyt z jednym opóźnieniem, a następnie zero. Przykład 2 Rozważmy AR (2) Powiązany wielomian w operatorze lagów. Korzenie można znaleźć za pomocą równania kwadratowego. Korzenie są wtedy, gdy korzenie są prawdziwe i w konsekwencji seria spadnie wykładniczo w odpowiedzi na szok. Kiedy korzenie są złożone, a seria pojawi się jako fala z tłumionym znakiem. Twierdzenie o stacjonarności nakłada następujące warunki na współczynniki AR. Autowariancja dla procesu AR (2), ze średnią zerową, dzieli się przez wariancję xt daje funkcję autokorelacji. Ponieważ możemy pisać podobnie dla drugiego i trzeciego autokorelacji. autokorelacje są rozwiązywane rekurencyjnie. Ich wzór jest sterowany przez korzenie równania różniczkowego liniowego drugiego rzędu. Jeśli korzenie są prawdziwe, wówczas autokorelacje będą się wykładać wykładniczo. Gdy korzenie są złożone, autokorelacje pojawią się jako wytłumiona fala sinusoidalna. Używając równań Yule-Walker, częściowe autokorelacje są ponownie, autokorelacje powoli wymierają. Częściowa autokorelacja z drugiej strony jest dość charakterystyczna. Ma skoki na jednym i dwóch opóźnieniach, a następnie zero. Twierdzenie Jeśli x t jest stacjonarnym procesem AR (p), to może być równoważnie zapisany jako model filtra liniowego. Oznacza to, że wielomian w operatorze przesunięcia wstecznego może być odwrócony, a AR (p) zapisany jako średnia ruchoma nieskończonego rzędu. Przykład Załóżmy, że z t jest procesem AR (1) ze średnią zerową. To, co jest prawdziwe w bieżącym okresie, musi również być prawdziwe w odniesieniu do poprzednich okresów. Tak więc przez rekursywne podstawianie możemy pisać Kwadrat po obu stronach i przyjmować oczekiwania po prawej stronie znikają jako k od f 1. Dlatego suma zbiega się do zt w średniej kwadratowej. Możemy przepisać model AR (p) jako filtr liniowy, o którym wiemy, że jest stacjonarny. Funkcja autokorelacji i częściowo autokorelacja Załóżmy, że stacjonarna seria zt ze średnią zero jest autoregresyjna. Funkcję autokorelacji AR (p) można znaleźć, przyjmując oczekiwania i dzieląc ją przez wariancję z t. Mówi nam to, że rk jest liniową kombinacją poprzednich autokorelacji. Możemy użyć tego w zastosowaniu reguły Cramerów do (i) w rozwiązywaniu dla fkk. W szczególności widzimy, że ta liniowa zależność spowoduje f kk 0 dla k gt p. Ta charakterystyczna cecha autoregresyjnych serii będzie bardzo przydatna, jeśli chodzi o identyfikację nieznanej serii. Jeśli masz MathCAD lub MathCAD Explorer, możesz eksperymentować z niektórymi pomysłami AR (p) przedstawionymi tutaj. Modele średniej ruchomej Rozważmy model dynamiczny, w którym seria zainteresowań zależy tylko od części historii terminu białego szumu. W uproszczeniu może to być reprezentowane jako Definicja Załóżmy, że t jest nieskorelowaną sekwencją i. i.d. zmienne losowe o zerowej średniej i skończonej wariancji. Następnie proces średniej ruchomej rzędu q, MA (q), podaje Twierdzenie: Proces średniej ruchomej jest zawsze stacjonarny. Dowód: Zamiast zacząć od ogólnego dowodu, zrobimy to dla konkretnego przypadku. Załóżmy, że z t jest MA (1). Następnie . Oczywiście t ma zerową średnią i skończoną wariancję. Średnia z t jest zawsze równa zero. Autocowary zostaną podane przez Ciebie. Możesz zobaczyć, że średnia zmiennej losowej w żaden sposób nie zależy od czasu. Można również zauważyć, że autokowariancja zależy tylko od przesunięcia s, a nie od miejsca w serii, którą rozpoczynamy. Możemy udowodnić ten sam wynik bardziej ogólnie, zaczynając od, który ma alternatywną reprezentację średniej ruchomej. Zastanówmy się najpierw nad wariancją z t. Przez rekursywne podstawianie można pokazać, że jest to równe sumie, którą znamy jako szereg zbieżny, więc wariancja jest skończona i niezależna od czasu. Na przykład kowariancje Można również zauważyć, że automatyczne kowariancje zależą tylko od względnych punktów w czasie, a nie od momentu chronologicznego. Naszym wnioskiem z tego wszystkiego jest to, że proces MA () jest stacjonarny. Dla ogólnego procesu MA (q) funkcja autokorelacji jest określona przez funkcję częściowej autokorelacji, która wygasa płynnie. Możesz to zobaczyć, odwracając proces, aby uzyskać proces AR (). Jeśli masz MathCAD lub MathCAD Explorer, możesz eksperymentować interaktywnie z niektórymi przedstawionymi tu ideami MA (q). Autoregresja mieszana - średnia ruchoma Definicja Definicja Załóżmy, że t jest nieskorelowaną sekwencją i. i.d. zmienne losowe o zerowej średniej i skończonej wariancji. Następnie autoregresyjny, ruchomy średni proces porządku (p, q), ARMA (p, q), jest podany przez Korzenie autoregresyjnego operatora muszą wszystkie leżeć poza okręgiem koła. Liczba niewiadomych to pq2. P i q są oczywiste. 2 zawiera poziom procesu, m. i wariancja szumu białego, sa 2. Załóżmy, że łączymy nasze reprezentacje AR i MA tak, że model jest i współczynniki są znormalizowane tak, że bo 1. Wtedy ta reprezentacja jest nazywana ARMA (p, q), jeśli korzenie (1) leżą poza kołem jednostki. Załóżmy, że y t są mierzone jako odchylenia od średniej, abyśmy mogli opuścić o. wtedy funkcja autokowariancji jest wyprowadzana z tego, że jeśli jgtq, a następnie warunki MA ulegną przerwaniu w oczekiwaniu na to, że to jest, funkcja autokowariancji wygląda jak typowy AR dla opóźnień po q wymykają się gładko po q, ale nie możemy powiedzieć, jak 1,2,133, q będzie wyglądać. Możemy również zbadać PACF dla tej klasy modelu. Model można zapisać jako: Możemy to napisać jako proces MA (inf), który sugeruje, że PACF giną powoli. Z pewną arytmetyką możemy pokazać, że dzieje się tak tylko po pierwszych pikach wnoszonych przez część AR. Prawo empiryczne W rzeczywistości stacjonarne szeregi czasowe mogą być reprezentowane przez p 2 i q 2. Jeśli twoim celem jest zapewnienie dobrego przybliżenia rzeczywistości, a dobroć dopasowania jest twoim kryterium, preferowany jest model marnotrawny. Jeśli twoim zainteresowaniem jest skuteczność predykcyjna, preferowany jest model oszczędny. Eksperymentuj z przedstawionymi powyżej pomysłami ARiM z arkuszem MathCADa. Autoregressive Integruj ruchome średnie modele Filtr MA Filtr AR Zintegruj filtr Czasami proces lub seria, którą próbujemy modelować, nie jest stacjonarna na poziomach. Ale może być stacjonarne, powiedzmy, w pierwszych różnicach. Oznacza to, że w swojej pierwotnej postaci autokowiary dla serii mogą nie być niezależne od chronologicznego punktu w czasie. Jeśli jednak skonstruujemy nową serię, która jest pierwszą różnicą w oryginalnej serii, ta nowa seria spełnia definicję stacjonarności. Dzieje się tak często w przypadku danych ekonomicznych, które są bardzo popularne. Definicja Załóżmy, że z t nie jest nieruchomy, ale z t - z t-1 spełnia definicję stacjonarności. Również przy, termin szumu białego ma skończoną średnią i wariancję. Możemy napisać model jako "Ten nazywa się modelem ARIMA (p, d, q). p identyfikuje kolejność operatora AR, d identyfikuje moc. q określa kolejność operatora IZ. Jeśli korzenie f (B) leżą poza okręgiem koła, możemy przepisać ARIMA (p, d, q) jako filtr liniowy. To znaczy. może być zapisany jako MA (). Zastrzegamy sobie dyskusję na temat wykrywania korzeni jednostki dla innej części notatek z wykładu. Rozważmy system dynamiczny z x t jako serią wejściową i y t jako serią wyjściową. W sposób schematyczny Te modele są dyskretną analogią liniowych równań różniczkowych. Przyjmujemy następującą relację, w której b wskazuje na czyste opóźnienie. Przypomnij sobie (1-B). Dokonując tego podstawienia można zapisać model Jeśli współczynnik wielomianu na y t można odwrócić, wówczas model można zapisać jako V (B) znany jako funkcja odpowiedzi impulsowej. Natkniemy się na tę terminologię ponownie w naszej późniejszej dyskusji na temat autoregresji wektorowej. modele kointegracji i korekcji błędów. IDENTYFIKACJA MODELU Po wybraniu klasy modeli należy teraz określić kolejność procesów generujących dane. Oznacza to, że najlepiej jest odgadnąć kolejność procesów AR i MA napędzających stacjonarne serie. Seria stacjonarna jest całkowicie scharakteryzowana przez średnią i autokowariancje. Ze względów analitycznych zwykle pracujemy z autokorelacjami i częściowymi autokorelacjami. Te dwa podstawowe narzędzia mają unikalne wzorce dla stacjonarnych procesów AR i MA. Można obliczyć przykładowe oszacowania funkcji autokorelacji i częściowej autokorelacji i porównać je z wynikami w tabelach dla modeli standardowych. Funkcja autokorelacji próbki Funkcja autokorelacji Przykładowe częściowe autokorelacje będą Używać autokorelacji, a częściowe autokorelacje są zasadniczo proste. Załóżmy, że mamy serię z t. ze średnią zerową, czyli AR (1). Gdybyśmy mieli uruchomić regresję z t2 na z t1 i z t, spodziewalibyśmy się, że współczynnik na z t nie różni się od zera, ponieważ ta częściowa autokorelacja powinna wynosić zero. Z drugiej strony, autokorelacje dla tej serii powinny maleć wykładniczo dla wzrastających opóźnień (patrz przykład AR (1) powyżej). Załóżmy, że seria jest naprawdę średnią ruchomą. Autokorelacja powinna wynosić zero wszędzie, ale przy pierwszym opóźnieniu. Częściowa autokorelacja powinna wygasnąć wykładniczo. Nawet od bardzo pobieżnego omówienia podstaw analizy szeregów czasowych jest oczywiste, że istnieje dwoistość między procesami AR i MA. Ta dwoistość może być podsumowana w poniższej tabeli. Wprowadzenie do ARIMA: modele niesezonowe Równanie prognostyczne ARIMA (p, d, q): Modele ARIMA są w teorii najbardziej ogólną klasą modeli do prognozowania szeregów czasowych, które można przekształcić w być 8220stacja 8221 przez różnicowanie (jeśli to konieczne), być może w połączeniu z nieliniowymi przekształceniami, takimi jak rejestracja lub deflacja (w razie potrzeby). Zmienna losowa, która jest szeregiem czasowym, jest nieruchoma, jeśli jej właściwości statystyczne są stałe w czasie. Seria stacjonarna nie ma trendu, jej wahania wokół średniej mają stałą amplitudę i poruszają się w spójny sposób. tj. jego krótkoterminowe wzorce czasu losowego zawsze wyglądają tak samo w sensie statystycznym. Ten ostatni warunek oznacza, że ​​jego autokorelacje (korelacje z jego własnymi wcześniejszymi odchyleniami od średniej) pozostają stałe w czasie, lub równoważnie, że jego widmo mocy pozostaje stałe w czasie. Zmienna losowa tej postaci może być oglądana (jak zwykle) jako kombinacja sygnału i szumu, a sygnał (jeśli jest widoczny) może być wzorem szybkiej lub wolnej średniej rewersji, lub sinusoidalnej oscylacji, lub szybkiej przemiany w znaku , a także może mieć składnik sezonowy. Model ARIMA może być postrzegany jako 8220filter8221, który próbuje oddzielić sygnał od szumu, a sygnał jest następnie ekstrapolowany w przyszłość w celu uzyskania prognoz. Równanie prognostyczne ARIMA dla stacjonarnych szeregów czasowych jest równaniem liniowym (to jest typu regresyjnym), w którym predyktory składają się z opóźnień zmiennej zależnej i opóźnień błędów prognoz. Oznacza to: Przewidywaną wartość Y stałej stałej lub ważoną sumę jednej lub więcej ostatnich wartości Y i lub ważoną sumę jednej lub więcej ostatnich wartości błędów. Jeśli predykatory składają się tylko z opóźnionych wartości Y., jest to model czysto autoregresyjny (8220a-regressed8221), który jest tylko szczególnym przypadkiem modelu regresji i który może być wyposażony w standardowe oprogramowanie regresyjne. Na przykład, autoregresyjny model pierwszego rzędu (8220AR (1) 8221) dla Y jest prostym modelem regresji, w którym zmienna niezależna jest po prostu Y opóźniona o jeden okres (LAG (Y, 1) w Statgraphics lub YLAG1 w RegressIt). Jeśli niektóre z predyktorów są opóźnieniami błędów, to model ARIMA NIE jest modelem regresji liniowej, ponieważ nie ma sposobu, aby określić 8220last okres8217s błąd8221 jako zmienną niezależną: błędy muszą być obliczane na podstawie okresu do okresu kiedy model jest dopasowany do danych. Z technicznego punktu widzenia problem z wykorzystaniem opóźnionych błędów jako czynników predykcyjnych polega na tym, że przewidywania model8217 nie są liniowymi funkcjami współczynników. mimo że są liniowymi funkcjami przeszłych danych. Współczynniki w modelach ARIMA, które zawierają opóźnione błędy, muszą być oszacowane przez nieliniowe metody optymalizacji (8220hill-climbing8221), a nie przez samo rozwiązanie układu równań. Akronim ARIMA oznacza Auto-Regressive Integrated Moving Average. Lagi z stacjonarnej serii w równaniu prognostycznym nazywane są "wartościami dodatnimi", opóźnienia błędów prognoz są nazywane "przesunięciem średniej", a szeregi czasowe, które muszą być różnicowane, aby stały się stacjonarne, są uważane za "podzielone" wersje stacjonarnej serii. Modele random-walk i random-tendencja, modele autoregresyjne i modele wygładzania wykładniczego są szczególnymi przypadkami modeli ARIMA. Niesezonowy model ARIMA jest klasyfikowany jako model DAIMIMA (p, d, q), gdzie: p to liczba terminów autoregresyjnych, d to liczba niesezonowych różnic potrzebnych do stacjonarności, a q to liczba opóźnionych błędów prognozy w równanie predykcji. Równanie prognostyczne jest skonstruowane w następujący sposób. Po pierwsze, niech y oznacza różnicę d Y. Oznacza to: Zwróć uwagę, że druga różnica Y (przypadek d2) nie jest różnicą od 2 okresów temu. Jest to raczej różnica między pierwszą a różnicą. który jest dyskretnym analogiem drugiej pochodnej, tj. lokalnym przyspieszeniem szeregu, a nie jego lokalnym trendem. Pod względem y. ogólne równanie prognostyczne jest następujące: Tutaj parametry średniej ruchomej (9528217 s) są zdefiniowane w taki sposób, że ich znaki są ujemne w równaniu, zgodnie z konwencją wprowadzoną przez Boxa i Jenkinsa. Niektórzy autorzy i oprogramowanie (w tym język programowania R) definiują je, aby zamiast tego mieli znaki plus. Kiedy rzeczywiste liczby są podłączone do równania, nie ma dwuznaczności, ale ważne jest, aby wiedzieć, którą konwencję używa twoje oprogramowanie podczas odczytu danych wyjściowych. Często parametry są tam oznaczone przez AR (1), AR (2), 8230 i MA (1), MA (2), 8230 itd. Aby zidentyfikować odpowiedni model ARIMA dla Y. zaczynasz od określenia kolejności różnicowania (d) konieczność stacjonowania serii i usunięcia ogólnych cech sezonowości, być może w połączeniu z transformacją stabilizującą warianty, taką jak rejestracja lub deflacja. Jeśli zatrzymasz się w tym momencie i będziesz przewidywał, że zróżnicowana seria jest stała, dopasowałeś jedynie model losowego spaceru lub losowego trendu. Jednak stacjonarne serie mogą nadal mieć błędy związane z auto - korelacjami, co sugeruje, że w równaniu prognostycznym potrzebna jest również pewna liczba terminów AR (p 8805 1) i kilka warunków MA (q 8805 1). Proces określania wartości p, d i q, które są najlepsze dla danej serii czasowej, zostanie omówiony w późniejszych sekcjach notatek (których linki znajdują się na górze tej strony), ale podgląd niektórych typów nietypowych modeli ARIMA, które są powszechnie spotykane, podano poniżej. ARIMA (1,0,0) Model autoregresyjny pierwszego rzędu: jeśli seria jest stacjonarna i autokorelowana, być może można ją przewidzieć jako wielokrotność jej poprzedniej wartości plus stałą. Równanie prognostyczne w tym przypadku wynosi 8230, co oznacza, że ​​Y cofnął się sam w sobie o jeden okres. Jest to model 8220ARIMA (1,0,0) constant8221. Jeżeli średnia z Y wynosi zero, wówczas nie zostałoby uwzględnione stałe wyrażenie. Jeśli współczynnik nachylenia 981 1 jest dodatni i mniejszy niż 1 w skali (musi być mniejszy niż 1 waga, jeśli Y jest nieruchomy), model opisuje zachowanie polegające na odwróceniu średniej, w którym należy przypisać wartość kolejnego okresu 817 razy 981 razy jako daleko od średniej, jak ta wartość okresu. Jeżeli 981 1 jest ujemny, przewiduje zachowanie średniej odwrócenia z naprzemiennością znaków, tj. Przewiduje również, że Y będzie poniżej średniego następnego okresu, jeśli jest powyżej średniej tego okresu. W modelu autoregresyjnym drugiego rzędu (ARIMA (2,0,0)), po prawej stronie pojawi się również termin Y t-2 i tak dalej. W zależności od znaków i wielkości współczynników, model ARIMA (2,0,0) może opisywać układ, którego średnia rewersja zachodzi w sposób oscylacyjny sinusoidalnie, podobnie jak ruch masy na sprężynie poddanej losowym wstrząsom . Próba losowa ARIMA (0,1,0): Jeśli seria Y nie jest nieruchoma, najprostszym możliwym modelem jest model losowego spaceru, który można uznać za ograniczający przypadek modelu AR (1), w którym autoregresyjny Współczynnik jest równy 1, tzn. szeregowi z nieskończenie powolną średnią rewersją. Równanie predykcji dla tego modelu można zapisać jako: gdzie stałym terminem jest średnia zmiana okresu do okresu (tj. Dryf długoterminowy) w Y. Ten model może być dopasowany jako model regresji bez przechwytywania, w którym pierwsza różnica Y jest zmienną zależną. Ponieważ zawiera on (tylko) niesezonową różnicę i stały termin, jest klasyfikowany jako model DAIMA (0,1,0) ze stałą. Często Model bezładnego spaceru byłby ARIMA (0,1; 0) model bez stałego ARIMA (1,1,0) różny model autoregresyjny pierwszego rzędu: Jeśli błędy modelu losowego spaceru są autokorelowane, być może problem można rozwiązać, dodając jedno opóźnienie zmiennej zależnej do równania predykcji - - to znaczy przez regresję pierwszej różnicy Y, która sama w sobie jest opóźniona o jeden okres. To przyniosłoby następujące równanie predykcji: które można przekształcić w To jest autoregresyjny model pierwszego rzędu z jednym rzędem niesezonowego różnicowania i stałym terminem - tj. model ARIMA (1,1,0). ARIMA (0,1,1) bez stałego prostego wygładzania wykładniczego: Inna strategia korekcji błędów związanych z autokorelacją w modelu losowego spaceru jest zasugerowana przez prosty model wygładzania wykładniczego. Przypomnijmy, że w przypadku niektórych niestacjonarnych szeregów czasowych (na przykład takich, które wykazują głośne wahania wokół wolno zmieniającej się średniej), model spaceru losowego nie działa tak dobrze, jak średnia ruchoma wartości z przeszłości. Innymi słowy, zamiast brać ostatnią obserwację jako prognozę następnej obserwacji, lepiej jest użyć średniej z ostatnich kilku obserwacji w celu odfiltrowania hałasu i dokładniejszego oszacowania średniej lokalnej. Prosty model wygładzania wykładniczego wykorzystuje wykładniczo ważoną średnią ruchomą przeszłych wartości, aby osiągnąć ten efekt. Równanie predykcji dla prostego modelu wygładzania wykładniczego można zapisać w wielu matematycznie równoważnych formach. jedną z nich jest tak zwana forma 8220, korekta zera 8221, w której poprzednia prognoza jest korygowana w kierunku popełnionego błędu: Ponieważ e t-1 Y t-1 - 374 t-1 z definicji, można to przepisać jako : co jest równaniem ARIMA (0,1,1) - bez stałej prognozy z 952 1 1 - 945. Oznacza to, że możesz dopasować proste wygładzanie wykładnicze, określając je jako model ARIMA (0,1,1) bez stała, a szacowany współczynnik MA (1) odpowiada 1-minus-alfa w formule SES. Przypomnijmy, że w modelu SES średni wiek danych w prognozach z wyprzedzeniem 1 roku wynosi 1 945. Oznacza to, że będą one pozostawać w tyle za trendami lub punktami zwrotnymi o około 1 945 okresów. Wynika z tego, że średni wiek danych w prognozach 1-okresowych modelu ARIMA (0,1,1) - bez stałej wynosi 1 (1 - 952 1). Tak więc, na przykład, jeśli 952 1 0.8, średnia wieku wynosi 5. Ponieważ 952 1 zbliża się do 1, ARIMA (0,1,1) - bez stałego modelu staje się bardzo długookresową średnią ruchomą, a jako 952 1 zbliża się do 0, staje się modelem losowego chodzenia bez dryfu. Jaki jest najlepszy sposób korekcji autokorelacji: dodawanie terminów AR lub dodawanie terminów MA W dwóch poprzednich modelach omówionych powyżej, problem związanych z autokorelacją błędów w modelu losowego spaceru został ustalony na dwa różne sposoby: przez dodanie opóźnionej wartości różnej serii do równania lub dodanie opóźnionej wartości błędu prognozy. Które podejście jest najlepsze Zasada praktyczna dla tej sytuacji, która zostanie omówiona bardziej szczegółowo w dalszej części, polega na tym, że pozytywna autokorelacja jest zwykle najlepiej traktowana przez dodanie do modelu warunku AR, a negatywna autokorelacja jest zwykle najlepiej traktowana przez dodanie Termin magisterski. W biznesowych i ekonomicznych szeregach czasowych negatywna autokorelacja często pojawia się jako artefakt różnicowania. (Ogólnie rzecz biorąc, różnicowanie zmniejsza pozytywną autokorelację, a nawet może spowodować przełączenie z autokorelacji dodatniej na ujemną). Tak więc model ARIMA (0,1,1), w którym różnicowanie jest połączone z terminem MA, jest częściej używany niż Model ARIMA (1,1,0). ARIMA (0,1,1) o stałym prostym wygładzaniu wykładniczym ze wzrostem: Dzięki wdrożeniu modelu SES jako modelu ARIMA można uzyskać pewną elastyczność. Po pierwsze, szacowany współczynnik MA (1) może być ujemny. odpowiada to współczynnikowi wygładzania większemu niż 1 w modelu SES, co zwykle nie jest dozwolone w procedurze dopasowania modelu SES. Po drugie, masz możliwość włączenia stałego warunku w modelu ARIMA, jeśli chcesz, aby oszacować średni niezerowy trend. Model ARIMA (0,1,1) ze stałą ma równanie prognozy: prognozy jednokresowe z tego modelu są jakościowo podobne do tych z modelu SES, z tym że trajektoria prognoz długoterminowych jest zwykle linia nachylenia (której nachylenie jest równe mu) zamiast linii poziomej. ARIMA (0,2,1) lub (0,2,2) bez stałego liniowego wygładzania wykładniczego: liniowe modele wygładzania wykładniczego są modelami ARIMA, które wykorzystują dwie niesezonowe różnice w połączeniu z terminami MA. Druga różnica w serii Y nie jest po prostu różnicą między Y a nią opóźnioną o dwa okresy, ale raczej jest pierwszą różnicą pierwszej różnicy - a. e. zmiana w Y w okresie t. Tak więc druga różnica Y w okresie t jest równa (Y t - Y t-1) - (Y t-1 - Y t-2) Y t - 2Y t-1 Y t-2. Druga różnica funkcji dyskretnej jest analogiczna do drugiej pochodnej funkcji ciągłej: mierzy ona przyspieszenie cytadania lub inną krzywiznę w funkcji w danym punkcie czasu. Model ARIMA (0,2,2) bez stałej przewiduje, że druga różnica szeregu równa się funkcji liniowej dwóch ostatnich błędów prognozy: która może być uporządkowana jako: gdzie 952 1 i 952 2 to MA (1) i Współczynniki MA (2). Jest to ogólny liniowy model wygładzania wykładniczego. w zasadzie taki sam jak model Holt8217s, a model Brown8217s to szczególny przypadek. Wykorzystuje wykładniczo ważone średnie ruchome do oszacowania zarówno lokalnego poziomu, jak i lokalnego trendu w serii. Długoterminowe prognozy z tego modelu zbiegają się do linii prostej, której nachylenie zależy od średniej tendencji obserwowanej pod koniec serii. ARIMA (1,1,2) bez stałego liniowego tłumienia wykładniczego. Ten model jest zilustrowany na załączonych slajdach w modelach ARIMA. Ekstrapoluje lokalny trend pod koniec serii, ale spłaszcza go na dłuższych horyzontach prognozy, wprowadzając nutę konserwatyzmu, praktykę, która ma empiryczne wsparcie. Zobacz artykuł na ten temat: "Dlaczego działa Damped Trend" autorstwa Gardnera i McKenziego oraz artykuł "Zgodny z legendą" Armstronga i in. dla szczegółów. Ogólnie zaleca się trzymać modele, w których co najmniej jedno z p i q jest nie większe niż 1, tj. Nie próbować dopasować modelu takiego jak ARIMA (2,1,2), ponieważ może to prowadzić do przeuczenia oraz pytania o współczynniku równomolowym, które omówiono bardziej szczegółowo w uwagach dotyczących struktury matematycznej modeli ARIMA. Implementacja arkusza kalkulacyjnego: modele ARIMA, takie jak opisane powyżej, można łatwo wdrożyć w arkuszu kalkulacyjnym. Równanie predykcyjne jest po prostu równaniem liniowym, które odnosi się do przeszłych wartości pierwotnych szeregów czasowych i przeszłych wartości błędów. W ten sposób można skonfigurować arkusz kalkulacyjny prognozowania ARIMA, przechowując dane w kolumnie A, formułę prognozowania w kolumnie B oraz błędy (dane minus prognozy) w kolumnie C. Formuła prognozowania w typowej komórce w kolumnie B byłaby po prostu wyrażenie liniowe odnoszące się do wartości w poprzednich rzędach kolumn A i C, pomnożone przez odpowiednie współczynniki AR lub MA zapisane w komórkach w innym miejscu arkusza kalkulacyjnego. STAT 497 WYKŁAD UWAGI 2 1. FUNKCJE AUTOCOVARIANCE I AUTOCORRELATION W przypadku procesu stacjonarnego, autokowariancja między Y t a Y. Prezentacja na temat: STAT 497 WYKŁAD UWAGI 2 1. FUNKCJE AUTOKAROWOŚCI I FUNKCJI AUTOKORELACJI W przypadku procesu stacjonarnego, autokowariancja między Y t i Y. Zapis prezentacji: 2 FUNKCJE AUTOKWARANTOWANIA I AUTOKAROWANIA W stacjonarnym proces, autokowariancja między Y t i Y tk jest i funkcja autokorelacji jest 2 3 WŁAŚCIWOŚCI FUNKCJI AUTOCOVARIANCE I AUTOCORRELATION: 1. 2. 3. 4. (warunek konieczny) k i k są dodatnimi pół-określonymi dla dowolnego zbioru punktów czasowych t 1, t 2,, t n i dowolnych liczb rzeczywistych 1, 2, n. 3 4 CZĘŚCIOWA FUNKCJA AUTOKORELACJI (PACF) PACF jest korelacją między Y t i Y t-k po ich wzajemnej liniowej zależności od zmiennych pośrednich Y t-1, Y t-2, Y t-k1 został usunięty. Warunkowa korelacja jest zwykle określana jako częściowa autokorelacja w szeregach czasowych. 4 5 OBLICZANIE PACF 1. PODEJŚCIE DO REGRESJI: Rozważ model ze średniego zerowego procesu stacjonarnego, gdzie ki oznacza współczynniki Y t-ki, a etk to zerowy średni błąd, który jest nieskorelowany z Y ti, i0,1, k . Pomnóż obie strony przez Y t kj 5 11 PROCES BIAŁEGO HAŁASU (WN) Proces nazywa się procesem białego szumu (WN), jeśli jest to sekwencja nieskorelowanych zmiennych losowych ze stałego rozkładu o stałej średniej, stałej wariancji i Cov (Y t, Y tk) 0 dla wszystkich k0. 11 12 PROCES BIAŁEGO HAŁASU (WN) Jest to proces stacjonarny z funkcją autokowariancji. 12 Zjawisko podstawowe: ACFPACF 0, k 0. 13 PROCES HAŁASU (WN) Biały szum (w analizie spektralnej): wytwarzane jest białe światło, w którym wszystkie częstotliwości ( tj. kolory) są obecne w równej ilości. Proces bez pamięci Element konstrukcyjny, z którego możemy skonstruować bardziej skomplikowane modele. Pełni funkcję podstawy ortogonalnej w ogólnej analizie wektorów i funkcji. 13 15 ERGODYCZNOŚĆ Prawo Wielkiego Kolmogorowa (LLN) mówi, że jeśli X i id (2) dla i 1. n, to mamy następujący limit dla średniej zespołu W szeregach czasowych mamy średnią czasową, a nie średnią zbiorczą . Dlatego średnia jest obliczana przez uśrednianie w czasie. Czy średnia z szeregu czasowego zbiega się do tego samego limitu, co średnia zespołu Odpowiedź jest twierdząca, jeśli Y t jest stacjonarna i ergodyczna. 15 16 ERGODYCZNOŚĆ Uważa się, że stacjonarny proces kowariancji ergodyczny dla średniej, jeśli średnia w szeregu czasowym zbiega się ze średnią populacji. Podobnie, jeśli średnia próbki zapewnia spójne oszacowanie dla drugiej chwili, wówczas mówi się, że proces jest ergodyczny dla drugiej chwili. 16 17 ERGODYCZNOŚĆ Warunkiem wystarczającym do tego, aby proces kowariancji stał się ergodyczny dla średniej, jest to. Ponadto, jeśli proces jest Gaussa, wówczas bezwzględne sumujące autokomariancje zapewniają również, że proces jest ergodyczny dla wszystkich momentów. 17 19 FUNKCJA AUTOKORRELACJI PRÓBKI Wykres kontra k przykładowy korelogram Dla dużych rozmiarów prób jest zwykle dystrybuowany ze średnią k, a wariancja jest przybliżona przybliżeniem Bartletta dla procesów, w których k 0 dla km. 19 m. tytuł19. 20 FUNKCJA AUTOKORRELACJI PRÓBKI W praktyce są nieznane i zastępowane ich przykładowymi szacunkami. Dlatego mamy następujący błąd standardowy o dużym opóźnieniu. 20 21 FUNKCJA AUTOKORRELACJI PRÓBKI Dla procesu WN mamy 95 przedział ufności dla k. Zatem, aby przetestować proces jest WN lub nie, narysuj linie 2n 12 na próbnym korelogramie. Jeśli wszystkie są w granicach, proces może być WN (musimy również sprawdzić próbkę PACF). 21 Dla procesu WN musi być bliski zeru. 22 PRÓBKA CZĘŚCIOWA FUNKCJA AUTOKRELACYJNA Dla procesu WN, 2n 12 może być użyte jako krytyczne ograniczenie w kk do przetestowania hipotezy o procesie WN. 22 23 OPERATORY PRZESIEWACZY (LUB LAG) Operator zmiany biegów, B jest zdefiniowany jako np. Losowy proces szoku: 23 24 PRZESUWANIE ŚREDNIEJ REPREZENTACJI SERII CZASU Znany również jako Losowy Szok lub Reprezentacja Wolda (1938). Niech będzie szereg czasowy. W przypadku procesu stacjonarnego możemy zapisać jako liniową kombinację sekwencji nieskorelowanych (WN) r. v.s. OGÓLNY PROCES LINIOWY: 24 gdzie 0 I, to 0 WN proces i 27 PRZESŁUCHANIE ŚREDNIA REPREZENTACJA SERII CZASU Ponieważ wiążą się z nieskończonymi sumami, aby być statystyką Dlatego jest warunkiem koniecznym, aby proces był stacjonarny. Jest to proces niedeterministyczny: proces nie zawiera składników deterministycznych (brak przypadkowości w przyszłych stanach systemu), które można dokładnie przewidzieć z własnej przeszłości. 27 28 FUNKCJA GENOWACYJNA AUTOKWARCÓW Dla danej sekwencji autokanaryzacji k, k0, 1, 2, funkcja generowania autokowariancji jest zdefiniowana jako gdzie wariancja danego procesu 0 jest współczynnikiem B 0 a autokowariancja opóźnienia k, k jest współczynnik zarówno B k, jak i B k. 28 22 11 31 PRZYKŁAD a) Napisz powyższe równanie w losowej formie szokowej. b) Znajdź funkcję generującą autokowariancję. 31 32 AUTOREGRESYWNA REPREZENTACJA SERII CZASU Ta reprezentacja jest również znana jako ODWRÓCONA FORMULARZ. Zmniejsz wartość Y t w czasie t dla własnej przeszłości plus losowy szok. 32 33 AUTOREGRESYWNA REPREZENTACJA SERII CZASU Jest to proces odwracalny (jest ważny dla prognozowania). Nie każdy proces stacjonarny jest odwracalny (Box i Jenkins, 1978). Odwrotność zapewnia wyjątkowość funkcji autokorelacji. Oznacza to, że różne modele szeregów czasowych mogą być ponownie wyrażane przez siebie. 33 34 REGUŁA ODWOŁANIA PRZY WYKORZYSTANIU FORMY WYSTĄPIENIA RANDOMU Aby proces liniowy był odwracalny, korzenie (B) 0 w funkcji B muszą znajdować się poza okręgiem jednostki. Jeśli jest źródłem (B), to 1. (liczba rzeczywista) jest wartością bezwzględną. (liczba zespolona) wynosi 34 1. (liczba rzeczywista) jest wartością bezwzględną. (liczba zespolona) wynosi 34. 35 REGUŁA ODWRÓCENIA PRZY WYKORZYSTANIU FORMY WYSTĄPIENIA RANDOMU Może być stacjonarna, jeśli proces może zostać ponownie zapisany w RSF, tj. 35 36 REGUŁA STACJONARNOŚCI WYKORZYSTUJĄCEJ FORMĘ ODWRÓCONĄ Aby proces liniowy był odwracalny, korzenie (B) 0 w funkcji B muszą znajdować się poza kołem jednostki. Jeśli jest korzeniem (B), to 1. 36 1. 36. 37 FORMULARZ RANDOM SHOCK FORM I ODWRÓCONA FORMA Przedstawienia AR i MA nie są formą modelu. Ponieważ zawierają nieskończoną liczbę parametrów, których nie można oszacować na podstawie skończonej liczby obserwacji. 37 38 MODELE SERII CZASU W Odwróconej Formie procesu, jeśli skończona liczba wag jest niezerowa, tj. Proces jest nazywany procesem AR (p). 38 39 MODELE SERII TIME W przypadkowej formie wstrząsu procesu, jeśli skończona liczba wag jest niezerowa, to znaczy proces nazywa się procesem MA (q). 39 41 MODELE SERII CZASU Liczba parametrów w modelu może być duża. Naturalny alternat to mieszany proces AR i MA Proces ARMA (p, q) W przypadku stałej liczby obserwacji, im więcej parametrów w modelu, tym mniej wydajna jest ocena parametrów. Wybierz prostszy model, aby opisać to zjawisko. 41 Pobierz ppt STAT 497 WYKŁADY UWAGI 2 1. FUNKCJE AUTOKAROWOŚCI I FUNKCJONALIZACJI AUTOMATYCZNEJ W przypadku procesu stacjonarnego, autokowariancja między Y t i Y.

No comments:

Post a Comment