Thursday 21 December 2017

Przeprowadzka średnia zamówienie q


Średnia krocząca - MA ZMNIEJSZAJĄCA Średnia krocząca - MA Jako przykład SMA rozważ zabezpieczenie z następującymi cenami zamknięcia w ciągu 15 dni: Tydzień 1 (5 dni) 20, 22, 24, 25, 23 Tydzień 2 (5 dni) 26, 28, 26, 29, 27 Tydzień 3 (5 dni) 28, 30, 27, 29, 28 10-dniowa MA określiłaby ceny zamknięcia za pierwsze 10 dni jako pierwszy punkt danych. Następny punkt danych obniżyłby najwcześniejszą cenę, dodał cenę w dniu 11 i wziął średnią, i tak dalej, jak pokazano poniżej. Jak wspomniano wcześniej, IZ opóźnia bieżące działania cenowe, ponieważ są one oparte na wcześniejszych cenach, im dłuższy okres czasu dla MA, tym większe opóźnienie. Tak więc 200-dniowa MA będzie miała znacznie większy stopień opóźnienia niż 20-dniowy MA, ponieważ zawiera ceny z ostatnich 200 dni. Czas stosowania MA zależy od celów handlowych, a krótsze MA stosuje się w przypadku transakcji krótkoterminowych, a długoterminowe IZ są bardziej odpowiednie dla inwestorów długoterminowych. 200-dniowy MA jest szeroko śledzony przez inwestorów i handlowców, z przerwami powyżej i poniżej tej średniej ruchomej uważanej za ważny sygnał handlowy. IZ przekazują również ważne sygnały transakcyjne samodzielnie lub gdy przechodzą dwie średnie wartości. Wzrost wartości MA wskazuje, że zabezpieczenie ma tendencję wzrostową. podczas gdy malejący MA wskazuje na to, że ma tendencję zniżkową. Podobnie, pęd w górę jest potwierdzany przez zwyżkowy crossover. co ma miejsce, gdy krótkoterminowe MA przechodzi ponad długoterminowe MA. Pęd w dół jest potwierdzany przez niedźwiedzi crossover, który występuje, gdy krótkoterminowe MA przechodzi poniżej długoterminowego MA. Autoregressive Moving Average ARMA (p, q) Modele do analizy szeregów czasowych - Część 2 W części 1 rozważaliśmy model autoregresyjny rzędu p, znanego również jako model AR (p). Przedstawiliśmy go jako rozszerzenie modelu losowego chodzenia, próbując wyjaśnić dodatkową szeregową korelację w finansowych szeregach czasowych. Ostatecznie zdaliśmy sobie sprawę, że nie było ono wystarczająco elastyczne, by właściwie uchwycić wszystkie autokorelacje w cenach zamknięcia Amazon Inc. (AMZN) i SampP500 US Equity Index. Głównym powodem tego jest to, że oba te aktywa są warunkowo heteroskedastyczne. co oznacza, że ​​są niestacjonarne i mają okresy o różnej wariancji lub grupowania zmienności, które nie są brane pod uwagę przez model AR (p). W przyszłych artykułach będziemy ostatecznie budować modele Autoregressive Integrated Moving Average (ARIMA), a także warunkowo heteroskedastyczne modele rodziny ARCH i GARCH. Modele te zapewnią nam pierwsze realistyczne próby prognozowania cen aktywów. W tym artykule jednak wprowadzimy model średniej ruchomej rzędu q, znany jako MA (q). Jest to składnik bardziej ogólnego modelu ARMA i jako taki musimy go zrozumieć, zanim przejdziemy dalej. Gorąco polecam przeczytanie poprzednich artykułów z kolekcji Analizy Szeregów Czasowych, jeśli tego nie zrobiłeś. Można je wszystkie znaleźć tutaj. Średnia ruchoma (MA) Modele z rzędu q Model średniej ruchomej jest podobny do modelu autoregresyjnego, z tą różnicą, że zamiast liniowej kombinacji wartości z przeszłych szeregów czasowych jest liniową kombinacją przeszłych białych szumów. Intuicyjnie oznacza to, że model MA widzi takie przypadkowe szumy białego szumu bezpośrednio przy każdej aktualnej wartości modelu. Jest to przeciwieństwo modelu AR (p), w którym szoki białego szumu są postrzegane tylko pośrednio. poprzez regresję na poprzednie warunki serii. Kluczową różnicą jest to, że model MA będzie tylko widział ostatnie szoki q dla dowolnego konkretnego modelu MA (q), podczas gdy model AR (p) będzie uwzględniał wszystkie wcześniejsze wstrząsy, chociaż w sposób coraz słabszy. Definicja Matematycznie MA (q) jest modelem regresji liniowej i jest podobnie skonstruowany do AR (p): Ruchomy średni model porządku q Model szeregów czasowych, jest ruchomym modelem średniej rzędu q. MA (q), jeśli: rozpocząć xt wt beta1 w ldots betaq w koniec Gdzie jest biały szum z E (wt) 0 i wariancja sigma2. Jeśli weźmiemy pod uwagę operację przesunięcia wstecznego. (patrz poprzedni artykuł), możemy zapisać powyższe jako funkcję phi: begin xt (1 beta1 beta2 2 ldots betaq q) wt phiq () wt end Wykorzystamy funkcję phi w kolejnych artykułach. Właściwości drugiego rzędu Podobnie jak w przypadku AR (p), średnia procesu MA (q) wynosi zero. Łatwo to zrozumieć, ponieważ średnia jest po prostu sumą środków z terminów białego szumu, które same są zerowe. początek tekstu enspace mux E (xt) sum E (wi) 0 koniec zacząć tekst enspace sigma2w (1 beta21 ldots beta2q) tekst końcowy enspace rhok left 1 tekst enspace k 0 sum betai beta sumq beta2i tekst enspace k 1, ldots, q 0 tekst enspace k gt q end right. Gdzie beta0 1. Zostały teraz wygenerowane niektóre symulowane dane i wykorzystano je do stworzenia korelogramów. To sprawi, że powyższa formuła dla rhok będzie nieco bardziej konkretna. Symulacje i korelogramy Zacznijmy od procesu MA (1). Jeśli ustawimy beta1 0.6 otrzymamy następujący model: Podobnie jak w przypadku modeli AR (p) w poprzednim artykule, możemy użyć R do symulacji takiej serii, a następnie narysować korelogram. Odkąd mieliśmy dużo praktyki w poprzedniej serii artykułów z serii Analizy czasu przeprowadzania fabuł, napiszę kod R w całości, zamiast rozdzielać go: Wynik jest następujący: Jak widzieliśmy powyżej w formule dla rhok dla k gt q wszystkie autokorelacje powinny wynosić zero. Od q 1 powinniśmy zobaczyć znaczący pik przy k1, a następnie nieznaczne szczyty po tym. Jednak ze względu na błąd próbkowania powinniśmy spodziewać się 5 (nieznacznie) znaczących pików na próbnym wykresie autokorelacji. Właśnie to pokazuje nam korelogram w tym przypadku. Mamy znaczący pik przy k1, a następnie nieistotne piki dla k gt 1, z wyjątkiem k4, gdzie mamy nieznacznie znaczący pik. W rzeczywistości jest to przydatny sposób sprawdzenia, czy model MA (q) jest odpowiedni. Przyjrzyjmy się korelogramowi konkretnej serii, aby zobaczyć, ile następnych niezerowych opóźnień istnieje. Jeśli q takie opóźnienia istnieją, wówczas możemy legalnie próbować dopasować model MA (q) do konkretnej serii. Ponieważ mamy dowody z naszych symulowanych danych procesu MA (1), teraz spróbujemy dopasować model MA (1) do naszych symulowanych danych. Niestety, nie ma odpowiednika polecenia ma do autoregressive modelu ar polecenia w R. Zamiast tego, musimy użyć bardziej ogólnego polecenia arima i ustawić autoregresyjne i zintegrowane komponenty na zero. Robimy to, tworząc 3-wektor i ustawiając pierwsze dwa składniki (odpowiednio parametry autogresywne i zintegrowane) na zero: Otrzymujemy użyteczne dane wyjściowe z polecenia arima. Po pierwsze, widać, że parametr został oszacowany jako 0,602 kapelusza, który jest bardzo zbliżony do rzeczywistej wartości beta1 0.6. Po drugie, błędy standardowe są już dla nas obliczane, dzięki czemu można łatwo obliczyć przedziały ufności. Po trzecie, otrzymujemy oszacowaną wariancję, logarytmię prawdopodobieństwa i Akaike Information Criterion (niezbędną do porównania modeli). Główną różnicą między arima i ar jest to, że arima szacuje termin przechwytywania, ponieważ nie odejmuje średniej wartości serii. Dlatego musimy być ostrożni przy wykonywaniu prognoz używając polecenia arima. Cóż, powróćmy do tego punktu później. Jako szybką kontrolę obliczyliśmy przedziały ufności dla kapelusza: Widzimy, że przedział ufności 95 zawiera prawdziwą wartość parametru beta1 0,6, więc możemy ocenić model jako dobre dopasowanie. Oczywiście należy się tego spodziewać, ponieważ najpierw przeprowadziliśmy symulację danych. Jak zmienia się sytuacja, jeśli zmienimy znak wersji beta na -0,6. Dokonajmy tej samej analizy: Wynik jest następujący: Widzimy, że w k1 mamy znaczący szczyt w korelogramie, z tym wyjątkiem, że wykazuje on korelację ujemną, ponieważ wynika on z modelu MA (1) z ujemnym pierwszym współczynnikiem. Ponownie wszystkie szczyty powyżej k1 są nieistotne. Pozwala dopasować model MA (1) i oszacować parametr: hat -0,730, który jest niedoceniany beta1 -0,6. Na koniec, obliczyć przedział ufności: Widzimy, że prawdziwa wartość parametru beta1-0.6 jest zawarta w przedziale ufności 95, dostarczając nam dowodów dobrego dopasowania modelu. Przeprowadźmy tę samą procedurę dla procesu MA (3). Tym razem powinniśmy spodziewać się znaczących pików przy k in, a nieistotne pików dla k gt 3. Zastosujemy następujące współczynniki: beta1 0,6, beta2 0,4 i beta3 0,2. Pozwala symulować proces MA (3) z tego modelu. Ive zwiększyła liczbę losowych próbek do 1000 w tej symulacji, co ułatwia zobaczenie prawdziwej struktury autokorelacji, kosztem uczynienia serii oryginalnej trudniejszą do zinterpretowania: Wynik jest następujący: Jak oczekiwano, pierwsze trzy piki są znaczące . Jednak tak samo jest czwarty. Możemy jednak słusznie zasugerować, że może to wynikać z błędu w doborze próby, ponieważ spodziewamy się, że 5 ze szczytów będzie znaczących poza kq. Pozwala teraz dopasować model MA (3) do danych, aby spróbować i oszacować parametry: szacunkowy kapelusz 0,544, kapelusz 0,345 i kapelusz 0,298 są zbliżone do prawdziwych wartości odpowiednio beta 10,6, beta 20,4 i beta 30,3. Możemy również wytworzyć przedziały ufności, stosując odpowiednie błędy standardowe: W każdym przypadku 95 przedziałów ufności zawiera prawdziwą wartość parametru i możemy wywnioskować, że mamy dobre dopasowanie do naszego modelu MA (3), jak należy się tego spodziewać. Dane finansowe W części 1 uwzględniliśmy Amazon Inc. (AMZN) i indeks giełdowy SampP500 US. Dopasowaliśmy model AR (p) do obu i odkryliśmy, że model nie był w stanie skutecznie uchwycić złożoności korelacji szeregowej, szczególnie w obsadzie SampP500, gdzie wydaje się, że występują efekty długiej pamięci. Nie będę rysować wykresów ponownie dla cen i autokorelacji, zamiast tego odsyła Cię do poprzedniego postu. Amazon Inc. (AMZN) Zacznijmy od próby dopasowania do modeli AMZN wybranych modeli MA (q), a mianowicie q in. Tak jak w Części 1, dobrze użyj quantmod, aby pobrać dzienne ceny AMZN, a następnie przekonwertuj je na logarytmiczny strumień zwrotów cen zamknięcia: Teraz, gdy mamy strumień logów, możemy użyć polecenia arima, aby dopasować MA (1), MA (2) i modele MA (3), a następnie oszacować parametry każdego z nich. Dla MA (1) mamy: Możemy wykreślić reszty dziennych powrotów dziennika i dopasowanego modelu: Zauważ, że mamy kilka znaczących pików w opóźnieniach k2, k11, k16 i k18, co wskazuje, że model MA (1) jest mało prawdopodobne, aby dobrze pasowało do zachowania powrotów dziennika AMZN, ponieważ nie wygląda to na realizację białego szumu. Spróbujmy modelu MA (2): Obie oceny dla współczynników beta są ujemne. Ponownie narysuj reszty: widzimy, że w pierwszych kilku opóźnieniach występuje autokorelacja o zerowej wartości. Jednakże mamy pięć nieznacznie znaczących wartości szczytowych dla opóźnień k12, k16, k19, k25 i k27. Sugeruje to, że model MA (2) przechwytuje wiele autokorelacji, ale nie wszystkie efekty długiej pamięci. Co powiedzie się na modelu MA (3)? Ponownie możemy wydrukować resztki: Wykres reszt MA (3) wygląda niemal identycznie jak model MA (2). Nie jest to zaskakujące, podobnie jak dodanie nowego parametru do modelu, który pozornie tłumaczy wiele korelacji przy krótszych opóźnieniach, ale to nie będzie miało większego wpływu na długoterminowe opóźnienia. Wszystkie te dowody sugerują, że model MA (q) jest mało prawdopodobny, aby wyjaśnić całą szeregową korelację w izolacji. przynajmniej dla AMZN. SampP500 Jeśli pamiętasz, w części 1 zobaczyliśmy, że pierwsze zamówienie różniło się dzienną logarytmiczną strukturą zwrotu SampP500 posiadającą wiele istotnych pików w różnych opóźnieniach, zarówno krótkich, jak i długich. Dostarczyło to dowodów zarówno warunkowej heteroskedastyczności (tj. Grupowania lotności), jak i efektów długiej pamięci. Prowadzi nas to do wniosku, że model AR (p) był niewystarczający do wychwycenia wszystkich obecnych autokorelacji. Jak widzieliśmy powyżej, model MA (q) był niewystarczający, aby uchwycić dodatkową korelację szeregową w resztach dopasowanego modelu z pierwszymi szeregami dziennych logarytmicznych pierwszego rzędu. Teraz spróbujemy dopasować model MA (q) do SampP500. Ktoś mógłby zapytać, dlaczego to robimy, jeśli wiemy, że jest mało prawdopodobne, aby dobrze pasowało. To dobre pytanie. Odpowiedź brzmi, że musimy dokładnie zobaczyć, jak to nie jest dobrze dopasowane, ponieważ jest to ostateczny proces, który będziemy śledzić, kiedy natkniemy się na znacznie bardziej wyrafinowane modele, które potencjalnie są trudniejsze do zinterpretowania. Zacznijmy od pozyskania danych i przekształcenia ich w różny cykl logarytmicznie przekształcanych dziennych cen zamknięcia w pierwszym rzędzie, tak jak w poprzednim artykule: Teraz dopasujemy model MA (1), MA (2) i MA (3) do serii, tak jak to zrobiliśmy powyżej dla AMZN. Zacznijmy od MA (1): Sporządźmy wykres reszt tego dopasowanego modelu: Pierwszy znaczący pik występuje przy k2, ale jest o wiele więcej w k. To oczywiście nie jest realizacja białego szumu i dlatego musimy odrzucić model MA (1) jako potencjalne dobre dopasowanie do SampP500. Czy sytuacja poprawi się z MA (2) Jeszcze raz, pozwala sporządzić wykres reszt tego dopasowanego modelu MA (2): Gdy pik przy k2 zniknął (jak się spodziewałem), nadal pozostajemy ze znaczącymi wartościami szczytowymi w wiele dłuższych opóźnień w resztach. Po raz kolejny stwierdzamy, że model MA (2) nie jest dobrze dopasowany. W przypadku modelu MA (3) powinniśmy oczekiwać mniejszej korelacji seryjnej w k3 niż w przypadku MA (2), ale po raz kolejny powinniśmy również oczekiwać, że nie zmniejszy to dalszych opóźnień. Na koniec, przygotujmy wykres rezydualny tego dopasowanego modelu MA (3): Dokładnie to widzimy w korelogramie reszty. W związku z tym MA (3), podobnie jak w przypadku innych modeli powyżej, nie jest dobrym rozwiązaniem dla SampP500. Następne kroki Badaliśmy teraz szczegółowo dwa główne modele szeregów czasowych, a mianowicie model Autogresywny rzędu p, AR (p), a następnie średnią ruchomą rzędu q, MA (q). Widzieliśmy, że obaj są w stanie wytłumaczyć niektóre autokorelacje w resztach pierwszego rzędu różnic dziennych cen logów akcji i indeksów, ale utrzymują się klasteryzacja zmienności i efekty długiej pamięci. Nadszedł wreszcie czas, aby zwrócić naszą uwagę na kombinację tych dwóch modeli, a mianowicie Autoregresyjną Średnią Ruchową rzędu p, q, ARMA (p, q), aby sprawdzić, czy jeszcze poprawi ona sytuację. Będziemy musieli poczekać do następnego artykułu, aby zapoznać się z pełną dyskusją. Pierwsze kroki z transakcjami ilościowymi2.1. Modele średniej ruchomej (modele MA) Modele serii czasowej znane jako modele ARIMA mogą zawierać terminy autoregresyjne i średnie ruchome. W pierwszym tygodniu poznaliśmy pojęcie autoregresji w modelu szeregów czasowych dla zmiennej x t jest opóźnioną wartością x t. Na przykład, pojęcie autoregresyjnego opóźnienia 1 to x t-1 (pomnożone przez współczynnik). Ta lekcja definiuje średnie ruchome terminy. Zmienna średnia krocząca w modelu szeregów czasowych to błąd z przeszłości (pomnożony przez współczynnik). Niech (wt overset N (0, sigma2w)), co oznacza, że ​​w t są identycznie, niezależnie rozmieszczone, każdy z rozkładem normalnym mającym średnią 0 i taką samą wariancję. Model średniej ruchomej pierwszego rzędu oznaczony jako MA (1) to (xt mu theta1w). Model średniej ruchomej drugiego rzędu oznaczony jako MA (2) to (xt. Mu theta1w theta2w). Model średniej ruchomej kw. Rzędu oznaczony jako MA (q) to (xt mu wt. theta1w theta2w dots thetaqw) Uwaga. Wiele podręczników i programów definiuje model z negatywnymi znakami przed terminami. Nie zmienia to ogólnych teoretycznych właściwości modelu, mimo że odwraca algebraiczne znaki szacowanych wartości współczynników i (nieakwadowanych) terminów w formułach dla ACF i wariancji. Musisz sprawdzić oprogramowanie, aby sprawdzić, czy zostały użyte negatywne lub pozytywne znaki, aby poprawnie zapisać oszacowany model. R używa pozytywnych znaków w swoim podstawowym modelu, tak jak my tutaj. Teoretyczne właściwości szeregu czasowego z modelem MA (1) Należy zauważyć, że jedyną niezerową wartością w teoretycznym ACF jest dla opóźnienia 1. Wszystkie inne autokorelacje wynoszą 0. Zatem próbka ACF ze znaczącą autokorelacją tylko w opóźnieniu 1 jest wskaźnikiem możliwego modelu MA (1). Dla zainteresowanych studentów, dowody tych właściwości są załącznikiem do tej ulotki. Przykład 1 Załóżmy, że model MA (1) to x t 10 w t .7 w t-1. gdzie (wt overset N (0,1)). Zatem współczynnik 1 0,7. Teoretyczny ACF jest podany przez A wykres tego ACF. Przedstawiony wykres jest teoretycznym ACF dla MA (1) z 1 0,7. W praktyce próbka zwykle zapewnia tak wyraźny wzór. Korzystając z R, symulowaliśmy n 100 wartości próbek, stosując model x t 10 w t .7 w t-1, gdzie w tid N (0,1). W przypadku tej symulacji następuje wykres serii danych przykładowych. Nie możemy wiele powiedzieć z tego spisku. Wyświetlany jest przykładowy ACF dla symulowanych danych. Widzimy skok w opóźnieniu 1, po którym następują ogólnie nieistotne wartości opóźnień po 1. Należy zauważyć, że próbka ACF nie pasuje do teoretycznego wzoru leżącego u podstaw MA (1), co oznacza, że ​​wszystkie autokorelacje dla opóźnień minionych 1 będą wynosić 0 Inna próbka miałaby nieco inny przykładowy ACF pokazany poniżej, ale prawdopodobnie miałby te same szerokie funkcje. Teoretyczne właściwości szeregu czasowego z modelem MA (2) Dla modelu MA (2), właściwości teoretyczne są następujące: Należy zauważyć, że jedyne niezerowe wartości w teoretycznym ACF dotyczą opóźnień 1 i 2. Autokorelacje dla wyższych opóźnień wynoszą 0 Tak więc, próbka ACF ze znaczącymi autokorelacjami w opóźnieniach 1 i 2, ale nieistotne autokorelacje dla wyższych opóźnień wskazuje na możliwy model MA (2). iid N (0,1). Współczynniki wynoszą 1, 0,5 i 2 0,3. Ponieważ jest to MA (2), teoretyczny ACF będzie miał niezerowe wartości tylko w opóźnieniach 1 i 2. Wartości dwóch niezerowych autokorelacji to wykres teoretycznego ACF. Jak prawie zawsze, dane przykładowe nie zachowują się tak doskonale, jak teoria. Przeprowadzono symulację wartości 150 próbek dla modelu x t 10 w t .5 w t-1 .3 w t-2. gdzie z tid N (0,1). Następnie następuje seria danych czasowych. Podobnie jak w przypadku wykresu szeregów czasowych dla przykładowych danych MA (1), nie można wiele z nich powiedzieć. Wyświetlany jest przykładowy ACF dla symulowanych danych. Wzór jest typowy w sytuacjach, w których może być przydatny model MA (2). Istnieją dwa istotne statystycznie skoki w opóźnieniach 1 i 2, a następnie nieistotne wartości dla innych opóźnień. Zauważ, że z powodu błędu próbkowania, próbka ACF nie zgadzała się dokładnie z modelem teoretycznym. ACF dla modeli MA (q) Ogólne Właściwość modeli MA (q) ogólnie jest taka, że ​​istnieją niezerowe autokorelacje dla pierwszych q opóźnień i autokorelacji 0 dla wszystkich opóźnień gt q. Niejednoznaczność połączenia między wartościami 1 i (rho1) w modelu MA (1). W modelu MA (1) dla dowolnej wartości 1. odwrotność 1 1 daje tę samą wartość Jako przykład, użyj 0.5 dla 1. a następnie użyj 1 (0,5) 2 dla 1. Dostaniesz (rho1) 0,4 w obu przypadkach. Aby spełnić teoretyczne ograniczenie zwane odwracalnością. ograniczamy MA (1) modelom do wartości z wartością bezwzględną mniejszą niż 1. W podanym przykładzie 1 0,5 będzie dopuszczalną wartością parametru, a 1 10,5 2 nie. Odwracalność modeli MA Model MA jest uważany za odwracalny, jeśli jest algebraicznie równoważny z konwergentnym nieskończonym modelem AR rzędu. Przez konwergencję rozumiemy, że współczynniki AR zmniejszają się do 0, gdy cofamy się w czasie. Odwracalność jest ograniczeniem zaprogramowanym w oprogramowaniu szeregów czasowych służącym do oszacowania współczynników modeli z warunkami MA. To nie jest coś, co sprawdzamy w analizie danych. Dodatkowe informacje na temat ograniczeń odwracalności modeli MA (1) podano w załączniku. Advanced Theory Note. W przypadku modelu MA (q) z określonym ACF istnieje tylko jeden odwracalny model. Warunkiem koniecznym do odwrócenia jest to, że współczynniki mają wartości takie, że równanie 1- 1 y-. - q y q 0 ma rozwiązania dla y, które wypadają poza kółkiem jednostki. Kod R dla przykładów W przykładzie 1, narysowaliśmy teoretyczny ACF modelu x t 10 w t. 7w t-1. a następnie zasymulowano wartości n 150 z tego modelu i wykreślono serie czasowe próbek oraz próbkę ACF dla symulowanych danych. Polecenia R użyte do wykreślenia teoretycznego ACF to: acfma1ARMAacf (mac (0.7), lag. max10) 10 opóźnień ACF dla MA (1) z theta1 0.7 lags0: 10 tworzy zmienną o nazwie opóźnienia, która mieści się w zakresie od 0 do 10. wykres (opóźnienia, acfma1, xlimc (1,10), ylabr, typeh, główne ACF dla MA (1) z theta1 0.7) abline (h0) dodaje oś poziomą do wykresu Pierwsze polecenie określa ACF i zapisuje je w obiekcie o nazwie acfma1 (nasz wybór nazwy). Polecenie fabuły (polecenie 3) wykreśla opóźnienia w stosunku do wartości ACF dla opóźnień od 1 do 10. Parametr ylab oznacza oś y, a parametr główny umieszcza tytuł na wykresie. Aby zobaczyć wartości liczbowe ACF, wystarczy użyć polecenia acfma1. Symulacja i wykresy zostały wykonane za pomocą następujących poleceń. xcarima. sim (n150, list (mac (0.7))) Symuluje n 150 wartości z MA (1) xxc10 dodaje 10, aby uzyskać średnią 10. Domyślne wartości symulacji do średniej 0. wykres (x, typb, mainSimulated MA (1) data) acf (x, xlimc (1,10), mainACF dla symulowanych danych próbki) W Przykładzie 2, wyliczyliśmy teoretyczny ACF modelu xt 10 wt .5 w t-1 .3 w t-2. a następnie zasymulowano wartości n 150 z tego modelu i wykreślono serie czasowe próbek oraz próbkę ACF dla symulowanych danych. Zastosowano następujące komendy R: acfma2ARMAacf (mac (0.5,0.3), lag. max10) acfma2 wykres lags0: 10 (opóźnienia, acfma2, xlimc (1,10), ylabr, typeh, główny ACF dla MA (2) z theta1 0.5, theta20.3) abline (h0) xcarima. sim (n150, list (mac (0.5, 0.3))) wykres xxc10 (x, typb, główna symulowana seria MA (2)) acf (x, xlimc (1,10), mainACF dla symulowanych danych MA (2) Załącznik: Dowód właściwości MA (1) Dla zainteresowanych studentów, tutaj są dowody na teoretyczne właściwości modelu MA (1). Wariancja: (tekst (xt) tekst (mu wt theta1 w) 0 tekst (wt) tekst (theta1w) sigma2w theta21sigma2w (1teta21) sigma2w) Gdy h 1, poprzednie wyrażenie 1 w 2. Dla dowolnego h 2, poprzednie wyrażenie 0 Powodem jest to, że z definicji niezależności wt. E (w k w j) 0 dla dowolnego k j. Ponadto, ponieważ w t mają średnią 0, E (wj w j) E (wj2) w 2. W przypadku szeregu czasowego Zastosuj ten wynik, aby uzyskać powyższy ACF. Odwracalny model MA to taki, który można zapisać jako nieskończony model AR rzędu, który zbiega się tak, że współczynniki AR zbiegają się do 0, gdy cofamy się w nieskończoność w czasie. Dobrze demonstruje odwzorowanie modelu MA (1). Następnie podstawiamy relację (2) dla w t-1 w równaniu (1) (3) (zt wt theta1 (z - theta1w) wt theta1z - theta2w) W czasie t-2. równanie (2) staje się wtedy zastępujemy zależności (4) dla w t-2 w równaniu (3) (zt wt theta1 z - theta21w wt theta1z - theta21 (z-teta1w) wt theta1z - theta12z theta31w) Jeśli mielibyśmy kontynuować ( w nieskończoność), otrzymalibyśmy nieskończony porządek modelu AR (zt wt theta1 z - theta21z theta31z - theta41z dots) Zwróć jednak uwagę, że jeśli 1 1, współczynniki pomnożące opóźnienia z wzrosną (nieskończenie) w miarę, jak cofniemy się w czas. Aby temu zapobiec, potrzebujemy 1 lt1. Jest to warunek dla odwracalnego modelu MA (1). Nieskończony model MA zamówienia W tygodniu 3, zobacz, że model AR (1) można przekonwertować do modelu MA nieskończonego rzędu: (xt - mu wt phi1w phi21w dots phik1 w dots sum phij1w) To podsumowanie ostatnich terminów białego szumu jest znane jako przyczynową reprezentację AR (1). Innymi słowy, x t jest szczególnym rodzajem MA z nieskończoną liczbą terminów cofających się w czasie. Nazywa się to nieskończonym porządkiem MA lub MA (). MA skończonego porządku jest nieskończonym porządkiem AR, a każde skończone zamówienie AR jest nieskończonym zleceniem MA. Przypomnijmy w Tygodniu 1, że zauważyliśmy, że warunkiem stacjonarnego AR (1) jest 1 lt1. Pozwala obliczyć Var (x t) za pomocą reprezentacji przyczynowej. Ten ostatni krok wykorzystuje podstawowy fakt o szeregach geometrycznych, które wymagają (phi1lt1), w przeciwnym razie seria się rozbiega. Nawigacja

No comments:

Post a Comment