Wednesday 13 December 2017

Acf moving average process


Identificar os números de AR ou MA termos em um modelo ARIMA ACF e PACF plots: Depois de uma série temporal foi estacionária por diferenciação, a próxima etapa na montagem de um ARIMA modelo é determinar se AR ou MA termos são necessários para corrigir qualquer autocorrelação que Permanece na série diferenciada. Claro, com software como Statgraphics, você poderia apenas tentar algumas combinações diferentes de termos e ver o que funciona melhor. Mas há uma maneira mais sistemática de fazer isso. Observando os gráficos de função de autocorrelação (ACF) e de autocorrelação parcial (PACF) das séries diferenciadas, você pode identificar tentativamente os números de AR e / ou MA que são necessários. Você já está familiarizado com a trama ACF: é apenas um gráfico de barras dos coeficientes de correlação entre uma série de tempo e defasagens de si mesmo. O gráfico do PACF é um gráfico dos coeficientes de correlação parcial entre a série e os atrasos de si. Em geral, a correlação quotpartial entre duas variáveis ​​é a quantidade de correlação entre elas que não é explicada por suas correlações mútuas com um conjunto especificado de outras variáveis. Por exemplo, se estivermos regredindo uma variável Y em outras variáveis ​​X1, X2 e X3, a correlação parcial entre Y e X3 é a quantidade de correlação entre Y e X3 que não é explicada por suas correlações comuns com X1 e X2. Esta correlação parcial pode ser calculada como a raiz quadrada da redução na variância que é conseguida pela adição de X3 à regressão de Y em X1 e X2. Uma auto-correlação parcial é a quantidade de correlação entre uma variável e uma defasagem de si mesma que não é explicada por correlações em todas as lâminas de ordem inferior. A autocorrelação de uma série temporal Y no intervalo 1 é o coeficiente de correlação entre Y t e Y t - 1. Que é presumivelmente também a correlação entre Y t -1 e Y t -2. Mas se Y t é correlacionado com Y t -1. E Y t -1 está igualmente correlacionado com Y t -2. Então devemos também esperar encontrar correlação entre Y t e Y t-2. De fato, a quantidade de correlação que deveríamos esperar no retardo 2 é precisamente o quadrado da correlação lag-1. Assim, a correlação em lag 1 quotpropagatesquot a lag 2 e presumivelmente para atrasos de ordem superior. A autocorrelação parcial no intervalo 2 é, portanto, a diferença entre a correlação real no retardo 2 e a correlação esperada devido à propagação da correlação no retardo 1. Aqui está a função de autocorrelação (ACF) da série UNITS, antes de qualquer diferenciação ser realizada: As autocorrelações são significativas para um grande número de defasagens - mas talvez as autocorrelações nos intervalos 2 e acima sejam meramente devidas à propagação da autocorrelação na defasagem 1. Isto é confirmado pelo gráfico PACF: Note que a parcela PACF tem um significado significativo Pico apenas no intervalo 1, o que significa que todas as autocorrelações de ordem superior são efetivamente explicadas pela autocorrelação lag-1. As autocorrelações parciais em todos os atrasos podem ser calculadas ajustando uma sucessão de modelos autorregressivos com números crescentes de defasagens. Em particular, a autocorrelação parcial com atraso k é igual ao coeficiente AR (k) estimado em um modelo autorregressivo com k termos - isto é. Um modelo de regressão múltipla no qual Y é regredido em LAG (Y, 1), LAG (Y, 2), etc. até LAG (Y, k). Assim, por mera inspeção do PACF você pode determinar quantos termos AR você precisa usar para explicar o padrão de autocorrelação em uma série de tempo: se a autocorrelação parcial é significativa em lag k e não significativa em qualquer maior atraso de ordem - ou seja. Se o PACF quotcuts offquot em lag k - então isso sugere que você deve tentar ajustar um modelo autorregressivo de ordem k PACF da série UNITS fornece um exemplo extremo do fenômeno de corte: tem um pico muito grande no intervalo 1 E nenhum outro pico significativo, indicando que na ausência de diferenciação um AR (1) modelo deve ser usado. No entanto, o termo AR (1) neste modelo resultará ser equivalente a uma primeira diferença, porque o coeficiente AR (1) estimado (que é a altura do pico PACF no intervalo 1) será quase exatamente igual a 1 . Agora, a equação de previsão para um modelo AR (1) para uma série Y sem ordens de diferenciação é: Se o coeficiente de AR (1) 981 1 nesta equação for igual a 1, é equivalente a prever que a primeira diferença De Y é constante - ie É equivalente à equação do modelo de caminhada aleatória com crescimento: O PACF da série UNITS está nos dizendo que, se não a diferenciar, então devemos ajustar um modelo AR (1) que se tornará equivalente a tomar Uma primeira diferença. Em outras palavras, está nos dizendo que UNITS realmente precisa de uma ordem de diferenciação para ser estacionalizada. AR e MA assinaturas: Se o PACF exibe um afiado corte enquanto o ACF decai mais lentamente (ou seja, tem picos significativos em maior defasagens), dizemos que a série estacionária exibe um quotAR assinatura, quot que significa que o padrão de autocorrelação pode ser explicado com mais facilidade Adicionando termos AR mais do que adicionando termos MA. Você provavelmente encontrará que uma assinatura AR é comumente associada com autocorrelação positiva no retardo 1 - i. e. Ele tende a surgir em séries que são ligeiramente sub diferenciadas. A razão para isto é que um termo AR pode agir como uma diferença quotpartial na equação de previsão. Por exemplo, em um modelo AR (1), o termo AR age como uma primeira diferença se o coeficiente autorregressivo for igual a 1, ele não faz nada se o coeficiente autorregressivo for zero e ele age como uma diferença parcial se o coeficiente estiver entre 0 e 1. Portanto, se a série é ligeiramente subdiferenciada - ie Se o padrão não estacionário de autocorrelação positiva não tiver sido completamente eliminado, ele irá cotar para uma diferença parcial exibindo uma assinatura AR. Portanto, temos a seguinte regra para determinar quando adicionar termos AR: Regra 6: Se o PACF da série diferenciada exibe um corte brusco e ou a autocorrelação lag-1 é positivo - i. e. Se a série aparece ligeiramente quotunderdifferencedquot - então considere adicionar um termo AR para o modelo. O intervalo em que o PACF corta é o número indicado de termos AR. Em princípio, qualquer padrão de autocorrelação pode ser removido de uma série estacionária adicionando termos auto-regressivos suficientes (defasagens da série estacionária) à equação de previsão, eo PACF indica quantos desses termos provavelmente serão necessários. No entanto, isso nem sempre é a maneira mais simples de explicar um determinado padrão de autocorrelação: às vezes é mais eficiente adicionar MA termos (atrasos dos erros de previsão) em vez disso. A função de autocorrelação (ACF) desempenha a mesma função para os termos MA que o PACF reproduz para os termos AR - ou seja, o ACF informa quantos termos MA são prováveis ​​de serem necessários para remover a autocorrelação remanescente da série diferenciada. Se a autocorrelação é significativa à lag k, mas não em qualquer defasagem maior - i. e. Se o ACF quotcuts offquot em lag k - isso indica que exatamente k MA termos devem ser utilizados na previsão equação. No último caso, dizemos que a série estacionária exibe uma assinatura quotMA, significando que o padrão de autocorrelação pode ser explicado mais facilmente adicionando termos MA do que adicionando termos AR. Uma assinatura de MA é comumente associada com autocorrelação negativa no retardo 1 - isto é. Tende a surgir em séries que são ligeiramente mais diferenciadas. A razão para isto é que um termo MA pode quotparcialmente cancelar uma ordem de diferenciação na equação de previsão. Para ver isso, lembre-se que um modelo ARIMA (0,1,1) sem constante é equivalente a um modelo Simple Exponential Smoothing. A equação de previsão para este modelo é onde o coeficiente MA (1) 952 1 corresponde à quantidade 1 - 945 no modelo SES. Se 952 1 for igual a 1, isso corresponde a um modelo SES com 945 0, que é apenas um modelo CONSTANTE porque a previsão nunca é atualizada. Isto significa que quando 952 1 é igual a 1, está realmente cancelando a operação de diferenciação que normalmente permite que a previsão SES se ancore novamente na última observação. Por outro lado, se o coeficiente de média móvel for igual a 0, este modelo se reduz a um modelo de caminhada aleatória - isto é. Ele deixa a operação de diferenciação sozinho. Portanto, se 952 1 for algo maior que 0, é como se estivéssemos cancelando parcialmente uma ordem de diferenciação. Se a série já está ligeiramente mais diferenciada - i. e. Se a autocorrelação negativa tiver sido introduzida - então as quotas serão feitas para que uma diferença seja parcialmente cancelada exibindo uma assinatura de MA. (Uma grande quantidade de agitação de braço está acontecendo aqui. Uma explicação mais rigorosa desse efeito é encontrada no folheto da Estrutura Matemática de Modelos ARIMA.) Daí a seguinte regra adicional: Regra 7: Se a ACF da série diferenciada exibir um Corte afiado e ou a autocorrelação lag-1 é negativo - Se a série aparece ligeiramente quotoverdifferencedquot - então considere adicionar um termo MA para o modelo. A defasagem em que o ACF corta é o número indicado de termos de MA. Um modelo para a série UNITS - ARIMA (2,1,0): Anteriormente, determinamos que a série UNITS necessitava (pelo menos) uma ordem de diferenciação não sazonal para ser estacionária. Depois de tomar uma diferença não sazonal - i. e. Se um modelo ARIMA (0,1,0) com constante - as parcelas ACF e PACF se assemelham a isto: Observe que (a) a correlação no retardo 1 é significativa e positiva, e (b) o PACF mostra um quotcutoff mais nítido do que O ACF. Em particular, o PACF tem apenas dois picos significativos, enquanto a ACF tem quatro. Assim, de acordo com a Regra 7 acima, a série diferenciada exibe uma assinatura AR (2). Se, portanto, definir a ordem do termo AR para 2 - i. e. Se um modelo ARIMA (2,1,0) - obtemos os seguintes gráficos ACF e PACF para os resíduos: A autocorrelação nos atrasos cruciais - ou seja, os retornos 1 e 2 - foi eliminada e não há nenhum padrão discernível Em atrasos de ordem superior. No entanto, o relatório de resumo de análise mostra que o modelo, no entanto, funciona bastante bem no período de validação, ambos os coeficientes AR são significativamente diferentes de zero eo padrão O desvio dos resíduos foi reduzido de 1,54371 para 1,4215 (quase 10) pela adição dos termos AR. Além disso, não há sinal de uma raiz quotunit porque a soma dos coeficientes AR (0.2522540.195572) não é próxima de 1. (As raízes unitárias são discutidas em mais detalhes abaixo). Em geral, este parece ser um bom modelo . As previsões (não transformadas) para o modelo mostram uma tendência linear ascendente projetada para o futuro: A tendência nas previsões de longo prazo é devido ao fato de que o modelo inclui uma diferença não sazonal e um termo constante: este modelo é basicamente uma caminhada aleatória com Crescimento ajustado pela adição de dois termos autorregressivos - ou seja, Dois atrasos das séries diferenciadas. A inclinação das previsões de longo prazo (ou seja, o aumento médio de um período para outro) é igual ao termo médio no resumo do modelo (0,467566). A equação de previsão é: onde 956 é o termo constante no resumo do modelo (0.258178), 981 1 é o coeficiente AR (1) (0.25224) e 981 2 é o coeficiente AR (2) (0.195572). Média versus constante: Em geral, o termo quotmeanquot na saída de um modelo ARIMA refere-se à média das séries diferenciadas (ou seja, a tendência média se a ordem de diferenciação for igual a 1), enquanto que a quotconstante é o termo constante que aparece No lado direito da equação de previsão. Os termos médio e constante estão relacionados pela equação: CONSTANT MEAN (1 menos a soma dos coeficientes AR). Neste caso, temos 0.258178 0.467566 (1 - 0.25224 - 0.195572) Modelo alternativo para a série UNITS - ARIMA (0,2,1): Lembre-se que quando começamos a analisar a série UNITS, não estávamos inteiramente certos do Ordem correta de diferenciação para usar. Uma ordem de diferenças não sazonais apresentou o menor desvio padrão (e um padrão de autocorrelação positiva moderada), enquanto duas ordens de diferenças não sazonais renderam um gráfico de séries temporais mais estacionárias (mas com autocorrelação negativa bastante forte). Aqui estão tanto o ACF como o PACF da série com duas diferenças não sazonais: O único ponto negativo no intervalo 1 no ACF é uma assinatura MA (1), de acordo com a Regra 8 acima. Assim, se usássemos 2 diferenças não sazonais, também gostaríamos de incluir um termo MA (1), produzindo um modelo ARIMA (0,2,1). De acordo com a Regra 5, também gostaríamos de suprimir o termo constante. Observe que o desvio padrão do ruído branco estimado (RMSE) é apenas muito ligeiramente mais alto para este modelo do que o anterior (1,46301 aqui versus 1,45215 anteriormente). A equação de previsão para este modelo é: onde theta-1 é o coeficiente MA (1). Lembre-se que isto é semelhante a um modelo Linear Exponential Smoothing, com o coeficiente MA (1) correspondente à quantidade 2 (1-alfa) no modelo LES. O coeficiente MA (1) de 0,76 neste modelo sugere que um modelo de LES com alfa na vizinhança de 0,72 caberia aproximadamente igualmente bem. Na verdade, quando um modelo LES é ajustado para os mesmos dados, o valor ótimo de alfa gira para fora em torno de 0,61, que não está muito longe. Aqui está um relatório de comparação de modelos que mostra os resultados do ajuste do modelo ARIMA (2,1,0) com constante, do modelo ARIMA (0,2,1) sem constante, e do modelo LES: Os três modelos têm um desempenho quase idêntico em O período de estimação eo modelo ARIMA (2,1,0) com constante aparece ligeiramente melhor do que os outros dois no período de validação. Com base apenas nestes resultados estatísticos, seria difícil escolher entre os três modelos. No entanto, se traçarmos as previsões de longo prazo feitas pelo modelo ARIMA (0,2,1) sem constante (que são essencialmente as mesmas que as do modelo LES), vemos uma diferença significativa com as do modelo anterior: As previsões têm uma tendência ligeiramente inferior à do modelo anterior - uma vez que a tendência local perto do final da série é ligeiramente inferior à tendência média em toda a série -, mas os intervalos de confiança aumentam muito mais rapidamente. O modelo com duas ordens de diferenciação pressupõe que a tendência da série é variável no tempo, portanto considera o futuro distante muito mais incerto do que o modelo com apenas uma ordem de diferenciação. Que modelo devemos escolher Isso depende das suposições que estamos confortáveis ​​fazendo com respeito à constância da tendência nos dados. O modelo com apenas uma ordem de diferenciação assume uma tendência média constante - é essencialmente um modelo de caminhada aleatória com crescimento fino - e, portanto, faz projeções de tendência relativamente conservadoras. Também é bastante otimista quanto à precisão com que ele pode prever mais de um período à frente. O modelo com duas ordens de diferenciação assume uma tendência local variável no tempo - é essencialmente um modelo linear de suavização exponencial - e suas projeções de tendência são um pouco mais inconstantes. Como regra geral neste tipo de situação, eu recomendaria escolher o modelo com a ordem mais baixa de diferenciação, outras coisas sendo aproximadamente iguais. Na prática, os modelos aleatórios ou de simples-suavização exponencial parecem funcionar melhor do que os modelos lineares de suavização exponencial. Modelos mistos: Na maioria dos casos, o melhor modelo resulta em um modelo que utiliza apenas termos AR ou apenas termos MA, embora em alguns casos um modelo quotmixedquot com termos AR e MA possa fornecer o melhor ajuste para os dados. No entanto, deve-se ter cuidado ao montar modelos mistos. É possível que um termo AR e um termo MA cancelem efeitos uns dos outros. Mesmo que ambos possam parecer significativos no modelo (conforme julgado pelas t-estatísticas de seus coeficientes). Assim, por exemplo, suponha que o modelo quotcorrectquot para uma série de tempo é um modelo ARIMA (0,1,1), mas em vez disso você encaixa um modelo ARIMA (1,1,2) - isto é. Você inclui um termo AR adicional e um termo MA adicional. Em seguida, os termos adicionais podem acabar aparecendo significativa no modelo, mas internamente eles podem ser apenas trabalhar uns contra os outros. As estimativas de parâmetros resultantes podem ser ambíguas, eo processo de estimação de parâmetros pode levar muitas (por exemplo, mais de 10) iterações a convergir. Assim: Regra 8: É possível que um termo AR e um termo MA cancelem os efeitos uns dos outros, por isso, se um modelo AR-MA misturado parece ajustar-se aos dados, experimente também um modelo com menos AR e menos MA - especialmente se as estimativas de parâmetros no modelo original exigirem mais de 10 iterações para convergir. Por esta razão, os modelos ARIMA não podem ser identificados pela abordagem quotbackwardwisequot que inclui os termos AR e MA. Em outras palavras, você não pode começar por incluir vários termos de cada tipo e, em seguida, jogando para fora aqueles cujos coeficientes estimados não são significativos. Em vez disso, você normalmente segue uma abordagem passo a passo quotforward, adicionando termos de um tipo ou outro como indicado pelo aparecimento dos gráficos ACF e PACF. Raízes unitárias: Se uma série é grosseiramente sub ou sobredifferenciada - i. e. Se uma ordem inteira de diferenciação precisa ser adicionada ou cancelada, isso é frequentemente sinalizado por uma raiz quotunit nos coeficientes AR ou MA estimados do modelo. Diz-se que um modelo AR (1) tem uma raiz unitária se o coeficiente estimado de AR (1) for quase exatamente igual a 1. (Por exemplo, eu realmente não significa significativamente diferente de. Em termos do erro padrão dos coeficientes. ) Quando isso acontece, significa que o termo AR (1) está imitando exatamente uma primeira diferença, caso em que você deve remover o termo AR (1) e adicionar uma ordem de diferenciação em vez disso. (Isto é exatamente o que aconteceria se você ajustasse um modelo de AR (1) à série UNITS indiferenciada, como observado anteriormente.) Em um modelo AR de ordem mais alta, existe uma raiz unitária na parte AR do modelo se a soma de Os coeficientes AR são exatamente iguais a 1. Neste caso, você deve reduzir a ordem do termo AR em 1 e adicionar uma ordem de diferenciação. Uma série de tempo com uma raiz unitária nos coeficientes AR é não-estacionária - i. e. Ele precisa de uma ordem maior de diferenciação. Regra 9: Se houver uma raiz unitária na parte AR do modelo - isto é. Se a soma dos coeficientes AR é quase exatamente 1 - você deve reduzir o número de termos AR por um e aumentar a ordem de diferenciação por um. Da mesma forma, um modelo MA (1) é dito ter uma raiz unitária se o estimado MA (1) coeficiente é exatamente igual a 1. Quando isso acontece, isso significa que o termo MA (1) é exatamente cancelar uma primeira diferença, em Caso, você deve remover o termo MA (1) e também reduzir a ordem de diferenciação por um. Em um modelo MA de ordem superior, existe uma raiz unitária se a soma dos coeficientes MA for exatamente igual a 1. Regra 10: Se houver uma raiz unitária na parte MA do modelo - isto é. Se a soma dos coeficientes MA é quase exatamente 1 - você deve reduzir o número de termos MA por um e reduzir a ordem de diferenciação por um. Por exemplo, se você ajustar um modelo de suavização exponencial linear (um modelo ARIMA (0,2,2)) quando um modelo de suavização exponencial simples (um modelo ARIMA (0,1,1) teria sido suficiente, você pode achar que A soma dos dois coeficientes MA é quase igual a 1. Ao reduzir a ordem MA e a ordem de diferenciação por um cada, você obtém o modelo SES mais apropriado. Um modelo de previsão com uma raiz unitária nos coeficientes estimados de MA é dito não-reversível. Significando que os resíduos do modelo não podem ser considerados como estimativas do ruído aleatório quottruequot que gerou as séries temporais. Outro sintoma de uma raiz unitária é que as previsões do modelo podem quotblow upquot ou de outra forma se comportam bizarrely. Se o gráfico de séries temporais das previsões de longo prazo do modelo parecer estranho, você deve verificar os coeficientes estimados de seu modelo para a presença de uma raiz unitária. Regra 11: Se as previsões de longo prazo aparecem erráticas ou instáveis, pode haver uma raiz unitária nos coeficientes AR ou MA. Nenhum destes problemas surgiu com os dois modelos aqui ajustados, porque tínhamos o cuidado de começar com ordens plausíveis de diferenças e números apropriados de coeficientes AR e MA estudando os modelos ACF e PACF. Discussões mais detalhadas sobre raízes unitárias e efeitos de cancelamento entre os termos AR e MA podem ser encontradas na estrutura Matemática de Modelos ARIMA. ARMA, ARMA Acf - Pacf Visualizações Como mencionado no post anterior. Eu tenho trabalhado com as simulações Autoregressive e Moving Average. Para testar a correção das estimativas por nossas simulações, empregamos acf (Autocorrelação) e pacf (autocorrelação parcial) para nosso uso. Para diferentes ordens de AR e MA, obtemos as diferentes visualizações com eles, tais como: Curvas exponenciais decrescentes. Ondas senoidais amortecidas. Ao analisar e escrever testes para o mesmo, eu também levei algum tempo para visualizar esses dados em ilne e gráficos de barras para obter uma imagem mais clara: AR (1) processo AR (1) processo é a simulação autorregressiva com Ordem p 1, isto é, com um valor de phi. Ideal AR (p) processo é representado por: Para simular isso, instale statsample-timeseries a partir daqui. Para AR (p), acf deve dar uma onda sinusoidal de amortecimento. O padrão é muito dependente do valor e do sinal dos parâmetros phi. Quando o conteúdo positivo em coeficientes phi é mais, você vai ter uma onda senoidal a partir do lado positivo, senão, a onda senoidal vai começar a partir do lado negativo. Observe, a onda sinusoidal de amortecimento partindo do lado positivo aqui: eo lado negativo aqui. Pacf dá pico a lag 0 (valor 1.0, padrão) e de lag 1 a lag k. O exemplo acima, apresenta o processo AR (2), para isso, devemos obter picos no retardo 1 - 2 como: MA (1) Processo MA (1) processo é a simulação de média móvel com ordem q 1, ou seja, com um valor De teta. Para simular isso, use o método masim de Statsample :: ARIMA :: ARIMA MA (q) processo ARMA (p, q) processo ARMA (p, q) é a combinação de auto-regressão e média móvel simulações. Quando q 0. o processo é chamado como puro processo autorregressivo quando p 0. o processo é puramente móvel média. O simulador de ARMA pode ser encontrado como armasim no Statsample :: ARIMA :: ARIMA. Para o processo ARMA (1, 1), aqui estão as comparações das visualizações de R e este código, que acabou de fazer o meu dia :) Cheers, - Ankur Goel Postado por Ankur Goel 20 de julho. 2017 Posts recentes GitHub Repos2.1 Modelos de média móvel (modelos MA) Modelos de séries temporais conhecidos como modelos ARIMA podem incluir termos autorregressivos ou termos de média móvel. Na Semana 1, aprendemos um termo autorregressivo em um modelo de séries temporais para a variável x t é um valor retardado de x t. Por exemplo, um termo autorregressivo de atraso 1 é x t-1 (multiplicado por um coeficiente). Esta lição define termos de média móvel. Um termo de média móvel em um modelo de séries temporais é um erro passado (multiplicado por um coeficiente). Vamos (wt desviar N (0, sigma2w)), significando que os w t são identicamente, distribuídos independentemente, cada um com uma distribuição normal com média 0 e a mesma variância. O modelo de média móvel de ordem 1, denotado por MA (1) é (xt mu wt theta1w) O modelo de média móvel de 2ª ordem, denotado por MA (2) é (xt mu wt theta1w theta2w) , Denotado por MA (q) é (xt mu wt theta1w theta2w pontos thetaqw) Nota. Muitos livros didáticos e programas de software definem o modelo com sinais negativos antes dos termos. Isso não altera as propriedades teóricas gerais do modelo, embora ele inverta os sinais algébricos de valores de coeficientes estimados e de termos (não-quadrados) nas fórmulas para ACFs e variâncias. Você precisa verificar seu software para verificar se sinais negativos ou positivos foram usados ​​para escrever corretamente o modelo estimado. R usa sinais positivos em seu modelo subjacente, como fazemos aqui. Propriedades Teóricas de uma Série de Tempo com um Modelo MA (1) Observe que o único valor não nulo na ACF teórica é para o atraso 1. Todas as outras autocorrelações são 0. Assim, uma ACF de amostra com uma autocorrelação significativa apenas no intervalo 1 é um indicador de um possível modelo MA (1). Para os estudantes interessados, provas destas propriedades são um apêndice a este folheto. Exemplo 1 Suponha que um modelo MA (1) seja x t 10 w t .7 w t-1. Onde (wt overset N (0,1)). Assim, o coeficiente 1 0,7. O ACF teórico é dado por Um gráfico deste ACF segue. O gráfico apenas mostrado é o ACF teórico para um MA (1) com 1 0,7. Na prática, uma amostra normalmente não proporciona um padrão tão claro. Usando R, simulamos n 100 valores de amostra usando o modelo x t 10 w t .7 w t-1 onde w t iid N (0,1). Para esta simulação, segue-se um gráfico de séries temporais dos dados da amostra. Não podemos dizer muito desse enredo. A ACF de amostra para os dados simulados segue. Observamos que a amostra ACF não corresponde ao padrão teórico do MA subjacente (1), ou seja, que todas as autocorrelações para os atrasos de 1 serão 0 Uma amostra diferente teria uma ACF de amostra ligeiramente diferente mostrada abaixo, mas provavelmente teria as mesmas características gerais. Propriedades teóricas de uma série temporal com um modelo MA (2) Para o modelo MA (2), as propriedades teóricas são as seguintes: Note que os únicos valores não nulos na ACF teórica são para os retornos 1 e 2. As autocorrelações para atrasos maiores são 0 . Assim, uma ACF de amostra com autocorrelações significativas nos intervalos 1 e 2, mas autocorrelações não significativas para atrasos maiores indica um possível modelo MA (2). Iid N (0,1). Os coeficientes são 1 0,5 e 2 0,3. Como este é um MA (2), o ACF teórico terá valores não nulos apenas nos intervalos 1 e 2. Os valores das duas autocorrelações não nulas são: Um gráfico do ACF teórico segue. Como quase sempre é o caso, dados de exemplo não vai se comportar tão perfeitamente como a teoria. Foram simulados n 150 valores de amostra para o modelo x t 10 w t .5 w t-1 .3 w t-2. Onde w t iid N (0,1). O gráfico de série de tempo dos dados segue. Como com o gráfico de série de tempo para os dados de amostra de MA (1), você não pode dizer muito dele. A ACF de amostra para os dados simulados segue. O padrão é típico para situações em que um modelo MA (2) pode ser útil. Existem dois picos estatisticamente significativos nos intervalos 1 e 2, seguidos por valores não significativos para outros desfasamentos. Note que devido ao erro de amostragem, a ACF da amostra não corresponde exactamente ao padrão teórico. ACF para Modelos Gerais MA (q) Uma propriedade dos modelos MA (q) em geral é que existem autocorrelações não nulas para os primeiros q lags e autocorrelações 0 para todos os retornos gt q. Não-unicidade de conexão entre os valores de 1 e (rho1) no modelo MA (1). No modelo MA (1), para qualquer valor de 1. O recíproco 1 1 dá o mesmo valor para Como exemplo, use 0,5 para 1. E então use 1 (0,5) 2 para 1. Você obterá (rho1) 0,4 em ambas as instâncias. Para satisfazer uma restrição teórica chamada invertibilidade. Restringimos modelos MA (1) para ter valores com valor absoluto menor que 1. No exemplo dado, 1 0,5 será um valor de parâmetro permitido, enquanto 1 10,5 2 não. Invertibilidade de modelos MA Um modelo MA é dito ser inversível se for algébrica equivalente a um modelo de ordem infinita convergente. Por convergência, queremos dizer que os coeficientes de RA diminuem para 0 à medida que avançamos no tempo. Invertibilidade é uma restrição programada em séries temporais de software utilizado para estimar os coeficientes de modelos com MA termos. Não é algo que verificamos na análise de dados. Informações adicionais sobre a restrição de invertibilidade para modelos MA (1) são fornecidas no apêndice. Teoria Avançada Nota. Para um modelo MA (q) com um ACF especificado, existe apenas um modelo invertible. A condição necessária para a invertibilidade é que os coeficientes têm valores tais que a equação 1- 1 y-. - q y q 0 tem soluções para y que caem fora do círculo unitário. Código R para os Exemplos No Exemplo 1, traçamos o ACF teórico do modelo x t 10w t. 7w t-1. E depois simularam n 150 valores a partir deste modelo e traçaram a amostra de séries temporais ea amostra ACF para os dados simulados. Os comandos R utilizados para traçar o ACF teórico foram: acfma1ARMAacf (mac (0.7), lag. max10) 10 lags de ACF para MA (1) com theta1 0.7 lags0: 10 cria uma variável chamada lags que varia de 0 a 10. plot (Lags, acfma1, xlimc (1,10), ylabr, typeh, ACF principal para MA (1) com theta1 0,7) abline (h0) adiciona um eixo horizontal ao gráfico O primeiro comando determina o ACF e o armazena em um objeto Chamado acfma1 (nossa escolha de nome). O comando de plotagem (o terceiro comando) traça defasagens em relação aos valores de ACF para os retornos 1 a 10. O parâmetro ylab rotula o eixo y eo parâmetro principal coloca um título no gráfico. Para ver os valores numéricos do ACF basta usar o comando acfma1. A simulação e as parcelas foram feitas com os seguintes comandos. Xcarima. sim (n150, lista (mac (0.7))) Simula n 150 valores de MA (1) xxc10 adiciona 10 para fazer a média 10. Padrões de simulação significam 0. plot (x, typeb, mainSimulated MA (1) data) Acf (x, xlimc (1,10), mainACF para dados de amostras simulados) No Exemplo 2, traçamos o ACF teórico do modelo xt 10 wt. 5 w t-1 .3 w t-2. E depois simularam n 150 valores a partir deste modelo e traçaram a amostra de séries temporais ea amostra ACF para os dados simulados. Os comandos R utilizados foram acfma2ARMAacf (mac (0,5,0,3), lag. max10) acfma2 lags0: 10 parcela (lags, acfma2, xlimc (1,10), ylabr, tipoh, ACF principal para MA (2) com theta1 0,5, (X, typeb, main Simulado MA (2) Series) acf (x, xlimc (1,10), x2, MainACF para dados simulados de MA (2) Apêndice: Prova de Propriedades de MA (1) Para estudantes interessados, aqui estão as provas para propriedades teóricas do modelo MA (1). Quando h 1, a expressão anterior 1 w 2. Para qualquer h 2, a expressão anterior 0 (x) é a expressão anterior x (x) A razão é que, por definição de independência do wt. E (w k w j) 0 para qualquer k j. Além disso, porque w t tem média 0, E (w j w j) E (w j 2) w 2. Para uma série de tempo, aplique este resultado para obter o ACF fornecido acima. Um modelo MA reversível é aquele que pode ser escrito como um modelo de ordem infinita AR que converge de modo que os coeficientes AR convergem para 0 à medida que nos movemos infinitamente para trás no tempo. Bem demonstrar invertibilidade para o modelo MA (1). Em seguida, substitui-se a relação (2) para wt-1 na equação (1) (3) (zt wt theta1 (z-theta1w) wt theta1z-theta2w) No tempo t-2. A equação (2) torna-se Então substituimos a relação (4) para wt-2 na equação (3) (zt wt theta1 z - theta21w wt theta1z - theta21 (z - theta1w) wt theta1z-theta12z theta31w) Se continuássemos infinitely), we would get the infinite order AR model (zt wt theta1 z - theta21z theta31z - theta41z dots ) Note however, that if 1 1, the coefficients multiplying the lags of z will increase (infinitely) in size as we move back in time. To prevent this, we need 1 lt1. This is the condition for an invertible MA(1) model. Infinite Order MA model In week 3, well see that an AR(1) model can be converted to an infinite order MA model: (xt - mu wt phi1w phi21w dots phik1 w dots sum phij1w ) This summation of past white noise terms is known as the causal representation of an AR(1). In other words, x t is a special type of MA with an infinite number of terms going back in time. This is called an infinite order MA or MA(). A finite order MA is an infinite order AR and any finite order AR is an infinite order MA. Recall in Week 1, we noted that a requirement for a stationary AR(1) is that 1 lt1. Lets calculate the Var( x t ) using the causal representation. This last step uses a basic fact about geometric series that requires (phi1lt1) otherwise the series diverges. NavigationTime Series analysis tsa statsmodels. tsa contains model classes and functions that are useful for time series analysis. This currently includes univariate autoregressive models (AR), vector autoregressive models (VAR) and univariate autoregressive moving average models (ARMA). It also includes descriptive statistics for time series, for example autocorrelation, partial autocorrelation function and periodogram, as well as the corresponding theoretical properties of ARMA or related processes. It also includes methods to work with autoregressive and moving average lag-polynomials. Additionally, related statistical tests and some useful helper functions are available. Estimation is either done by exact or conditional Maximum Likelihood or conditional least-squares, either using Kalman Filter or direct filters. Currently, functions and classes have to be imported from the corresponding module, but the main classes will be made available in the statsmodels. tsa namespace. The module structure is within statsmodels. tsa is stattools. empirical properties and tests, acf, pacf, granger-causality, adf unit root test, ljung-box test and others. armodel. univariate autoregressive process, estimation with conditional and exact maximum likelihood and conditional least-squares arimamodel. univariate ARMA process, estimation with conditional and exact maximum likelihood and conditional least-squares vectorar, var. vector autoregressive process (VAR) estimation models, impulse response analysis, forecast error variance decompositions, and data visualization tools kalmanf. estimation classes for ARMA and other models with exact MLE using Kalman Filter armaprocess. properties of arma processes with given parameters, this includes tools to convert between ARMA, MA and AR representation as well as acf, pacf, spectral density, impulse response function and similar sandbox. tsa. fftarma. similar to armaprocess but working in frequency domain tsatools. additional helper functions, to create arrays of lagged variables, construct regressors for trend, detrend and similar. filters. helper function for filtering time series Some additional functions that are also useful for time series analysis are in other parts of statsmodels, for example additional statistical tests. Some related functions are also available in matplotlib, nitime, and scikits. talkbox. Those functions are designed more for the use in signal processing where longer time series are available and work more often in the frequency domain. Descriptive Statistics and Tests stattools. acovf (x, unbiased, demean, fft)

No comments:

Post a Comment