Variáveis de tempo autorregressivos movimentação média modelos para covariância estimativa


Este artigo considera a estimativa de uma matriz de covariância de p variáveis ​​de n observações, quer através de bandas ou afilando a matriz de covariância da amostra, ou estimando uma versão com bandas do inverso da covariância. Mostramos que estas estimativas são consistentes na norma do operador desde que (log p) nto0, e obtenham taxas explícitas. Os resultados são uniformes em relação a algumas famílias de matrizes de covariância bem condicionadas e bem condicionadas. Introduzimos também um análogo do modelo de ruído branco gaussiano e mostramos que se a covariância da população é embutida nesse modelo e bem condicionada, então as aproximações com bandas produzem estimativas consistentes dos autovalores e dos autovetores associados da matriz de covariância. Os resultados podem ser estendidos para versões suaves de bandas e para distribuições não gaussianas com caudas suficientemente curtas. Propõe-se uma abordagem de reamostragem para a escolha do parâmetro de bandagem na prática. Esta abordagem é ilustrada numericamente em dados simulados e reais. Este artigo propõe uma nova interpretação de regressão do fator de Cholesky da matriz de covariância, ao contrário da interpretação de regressão bem conhecida do fator Cholesky da covariância inversa, O que leva a uma nova classe de estimadores de covariância regularizados adequados para problemas de alta dimensionalidade. Regularizar o fator de Cholesky da covariância através dessa interpretação de regressão sempre resulta em um estimador positivo definido. Em particular, pode-se obter um estimador de bandas definidas positivas da matriz de covariância ao mesmo custo computacional que o estimador de bandas popular proposto por Bickel e Levina (2008b), que não é garantido como sendo definido positivo. Estabelecemos também conexões teóricas entre fatores de bandas de Cholesky da matriz de covariância e sua estimativa de verossimilhança inversa e restrita sob a restrição de bandagem e comparamos o desempenho numérico de vários métodos em simulações e em um exemplo de dados de sonar. Resumo A matriz de covariância desempenha um papel central na análise estatística multivariada. Foram feitos avanços significativos recentemente no desenvolvimento de teoria e metodologia para estimar matrizes de covariância grande. Contudo, uma teoria de minimax ainda foi desenvolvida. Neste trabalho, estabelecemos as taxas ótimas de convergência para estimar a matriz de covariância sob a norma do operador ea norma de Frobenius. Mostra-se que os procedimentos ótimos sob as duas normas são diferentes e, conseqüentemente, a estimação da matriz sob a norma do operador é fundamentalmente diferente da estimativa do vetor. O limite superior minimax é obtido pela construção de uma classe especial de estimadores afilados e pelo estudo de suas propriedades de risco. Um passo chave na obtenção da taxa óptima de convergência é a derivação do limite mínimo minimax. A análise técnica requer novas idéias que são bastante diferentes daquelas usadas nos problemas de estimação de seqüência de função mais convencionais. Comentário: Publicado em dx. doi. org10.121409-AOS752 os Anais de Estatística (imstat. orgaos) pelo Instituto de Estatística Matemática (imstat. org) Texto completo Artigo Oct 2018 T. Tony Cai Cun-Hui Zhang Harrison H ZhouTime Varying Modelos de média móvel auto-regressiva para a covariância Estimação Um tal critério é importante e útil para decidir se a técnica de faixas é uma estratégia adequada. Outros métodos de estimação de covariância, como a modelagem da matriz de covariância como uma média móvel auto-regressiva (ARMA) de tempo variável 8 também requerem testes para decidir se o modelo é um bom ajuste. Alguns testes de hipóteses recentes para bandedness pode ser encontrado em 6. Quase sempre, as estruturas específicas são escolhidos para ser linear ou affine. Os exemplos mais populares incluem modelos como Toeplitz Abramovich et al. (2007) Asif e Moura (2005) Fuhrmann (1991) Kavcic e Moura (2000) Roberts e Ephraim (2000) Snyder et al. (1989) Soloveychik e Wiesel (2017) Sun et ai. (2017) Wiesel et ai. (2017), grupo simétrico Shah e Chandrasekaran (2017) Soloveychik e Wiesel (2017), esparsas Banerjee et al. (2008) Ravikumar et al. (2017) Rothman et ai. (2008), baixo nível Fan et al. (2008) Johnstone e Lu (2009) Lounici et al. (2017) e muitos outros. Estruturas não-lineares também são bastante comuns em aplicações de engenharia. RESUMO: Consideramos a estimativa de covariância gaussiana e robusta assumindo que a matriz de covariância verdadeira é o produto de Kronecker de duas matrizes quadradas de menor dimensão. Em ambos os casos, definimos os estimadores como soluções para programas de máxima verossimilhança restrita. No caso robusto consideramos o estimador de Tylerx27s definido como um estimador de máxima verossimilhança de uma certa distribuição numa esfera. Desenvolvemos condições suficientemente apertadas para a existência e singularidade das estimativas e mostramos que em um caso Gaussiano com a fração de fractura média desconhecida 2 é quase seguramente suficiente para garantir a existência e singularidade, onde p e q são as dimensões dos fatores de produto Kronecker A verdadeira covariância. No caso robusto, com a média conhecida, o número correspondente de amostras é maxfrac, frac 1. Artigo Dec 2017 Ilya Soloveychik Dmitry Trushin quotNessa hipótese, derivam-se dois detectores baseados em GLRT ea análise de desempenho em dados reais revela a superioridade do método proposto Detectores em relação às suas contrapartes não-Bayesianas quando o conjunto de treino é pequeno. A estrutura bayesiana também pode ser usada em conjunto com a informação estrutural sobre a matriz de covariância de interferência 11 como mostrado em 12, onde a perturbação é modelada como um processo auto-regressivo multicanal com uma matriz de covariância de canal cruzado aleatório (ver também 13,14) . Em aplicações de radar, onde os sistemas estão equipados com matriz de sensores, informações estruturais sobre a matriz de covariância de interferência resultam da exploração de uma classe específica de geometrias. RESUMO: Abordamos a detecção de radar adaptativo de alvos embutidos em ambientes dominados pela desordem de terra, caracterizados por uma densidade espectral de potência estruturada simetricamente. Na fase de projeto, alavancamos na simetria de espectro para a interferência para chegar a esquemas de decisão capazes de capitalizar as informações a priori sobre a estrutura de covariância. Para isso, provamos que o problema de detecção em questão pode ser formulado em termos de variáveis ​​reais e, então, aplicamos procedimentos de projeto baseados no GLRT, no teste de Rao e no teste de Wald. Especificamente, as estimativas dos parâmetros desconhecidos sob a hipótese de presença alvo são obtidas através de um algoritmo de otimização iterativo cuja garantia de convergência e qualidade é completamente comprovada. A análise de desempenho, tanto em dados simulados quanto em dados reais de radar, confirma a superioridade das arquiteturas consideradas sobre suas contrapartes convencionais que não aproveitam a simetria espectral de desordem. (P, q) Modelos para a Análise de Série de Tempo - Parte 1 No último artigo nós olhamos caminhadas aleatórias e ruído branco como modelos básicos da série de tempo para certos Instrumentos financeiros, tais como os preços diários de acções e de acções. Descobrimos que, em alguns casos, um modelo de caminhada aleatória foi insuficiente para captar o comportamento de autocorrelação total do instrumento, o que motiva modelos mais sofisticados. No próximo par de artigos vamos discutir três tipos de modelo, a saber, o Modelo Autoregressivo (AR) de ordem p, o Modelo de Média Móvel (MO) de ordem q eo modelo de Média Móvel Movida Autogressiva (ARMA) de ordem p , Q. Estes modelos nos ajudarão a tentar capturar ou explicar mais da correlação serial presente dentro de um instrumento. Em última análise, eles nos fornecerão um meio de prever os preços futuros. No entanto, é bem sabido que as séries temporais financeiras possuem uma propriedade conhecida como agrupamento de volatilidade. Ou seja, a volatilidade do instrumento não é constante no tempo. O termo técnico para esse comportamento é conhecido como heterocedasticidade condicional. Como os modelos AR, MA e ARMA não são condicionalmente heteroscedásticos, ou seja, não levam em conta o agrupamento de volatilidade, acabaremos por precisar de um modelo mais sofisticado para nossas previsões. Tais modelos incluem o modelo condutor condicional condicional (ARCH) e modelo Heteroskedastic condicional condicional generalizado (GARCH), e as muitas variantes dele. GARCH é particularmente bem conhecido em finanças de quant e é usado primeiramente para simulações financeiras da série de tempo como um meio de estimar o risco. No entanto, como com todos os artigos do QuantStart, eu quero construir esses modelos a partir de versões mais simples para que possamos ver como cada nova variante muda nossa capacidade de previsão. Apesar de AR, MA e ARMA serem modelos de séries temporais relativamente simples, eles são a base de modelos mais complicados, como a Média Móvel Integrada Autoregressiva (ARIMA) ea família GARCH. Por isso, é importante que os estudemos. Uma das nossas primeiras estratégias de negociação na série de artigos de séries temporais será combinar ARIMA e GARCH para prever preços n períodos de antecedência. No entanto, teremos que esperar até que discutimos ambos ARIMA e GARCH separadamente antes de aplicá-los a uma estratégia real. Como vamos prosseguir Neste artigo vamos esboçar alguns novos conceitos de série de tempo que bem precisam para os restantes métodos, Estacionário eo critério de informação Akaike (AIC). Subseqüentemente a esses novos conceitos, seguiremos o padrão tradicional para estudar novos modelos de séries temporais: Justificativa - A primeira tarefa é fornecer uma razão por que estavam interessados ​​em um determinado modelo, como quants. Por que estamos introduzindo o modelo de séries temporais Que efeitos pode capturar O que ganhamos (ou perdemos) adicionando complexidade extra Definição - Precisamos fornecer a definição matemática completa (e notação associada) do modelo de série temporal para minimizar Qualquer ambiguidade. Propriedades de Segunda Ordem - Vamos discutir (e em alguns casos derivar) as propriedades de segunda ordem do modelo de séries temporais, que inclui sua média, sua variância e sua função de autocorrelação. Correlograma - Usaremos as propriedades de segunda ordem para traçar um correlograma de uma realização do modelo de séries temporais para visualizar seu comportamento. Simulação - Vamos simular as realizações do modelo de série de tempo e, em seguida, ajustar o modelo para estas simulações para garantir que temos implementações precisas e compreender o processo de montagem. Dados Financeiros Reais - Ajustaremos o modelo da série de tempo aos dados financeiros reais e consideraremos o correlograma dos resíduos para ver como o modelo explica a correlação serial na série original. Previsão - Vamos criar n-passo adiante previsões do modelo de série de tempo para realizações particulares, a fim de produzir sinais de negociação. Quase todos os artigos que escrevo sobre modelos de séries temporais cairão nesse padrão e nos permitirá comparar facilmente as diferenças entre cada modelo à medida que adicionamos mais complexidade. Vamos começar por olhar para a estacionaridade rigorosa ea AIC. Estritamente estacionária Nós fornecemos a definição de estacionariedade no artigo sobre correlação serial. No entanto, porque vamos entrar no reino de muitas séries financeiras, com várias freqüências, precisamos ter certeza de que nossos (eventuais) modelos levam em conta a volatilidade variável no tempo dessas séries. Em particular, precisamos considerar sua heterocedasticidade. Encontraremos este problema quando tentarmos ajustar certos modelos a séries históricas. Geralmente, nem toda a correlação seriada nos resíduos dos modelos ajustados pode ser considerada sem levar em conta a heterocedasticidade. Isso nos leva de volta à estacionária. Uma série não é estacionária na variância se tiver volatilidade variável no tempo, por definição. Isso motiva uma definição mais rigorosa de estacionariedade, ou seja, a estacionariedade estrita: estritamente estacionária série A modelo de série temporal, é estritamente estacionário se a distribuição estatística conjunta dos elementos x, ldots, x é o mesmo que xm, ldots, xm, Para todos ti, m. Pode-se pensar nesta definição como simplesmente que a distribuição da série temporal é inalterada para qualquer deslocamento abritário no tempo. Em particular, a média ea variância são constantes no tempo para uma série estritamente estacionária ea autocovariância entre xt e xs (digamos) depende apenas da diferença absoluta de t e s, t-s. Estaremos revisitando as séries estritamente estacionárias em futuras postagens. Critério de Informações Akaike Eu mencionei em artigos anteriores que eventualmente precisaria considerar como escolher entre melhores modelos separados. Isto é verdade não só de análise de séries temporais, mas também de aprendizagem de máquinas e, em termos mais gerais, de estatísticas em geral. Os dois principais métodos que usaremos (por enquanto) são o Critério de Informação Akaike (AIC) e o Critério de Informação Bayesiano (conforme avançamos com nossos artigos sobre Estatísticas Bayesianas). Bem, brevemente considerar a AIC, como ele será usado na Parte 2 do ARMA artigo. AIC é essencialmente uma ferramenta para auxiliar na seleção do modelo. Ou seja, se tivermos uma seleção de modelos estatísticos (incluindo séries temporais), então a AIC estima a qualidade de cada modelo, em relação aos outros que temos disponíveis. Baseia-se na teoria da informação. Que é um tópico altamente interessante, profundo que infelizmente não podemos entrar em muito detalhe sobre. Ele tenta equilibrar a complexidade do modelo, que neste caso significa o número de parâmetros, com o quão bem ele se encaixa os dados. Vamos fornecer uma definição: Critério de Informação Akaike Se tomarmos a função de verossimilhança para um modelo estatístico, que tem k parâmetros, e L maximiza a probabilidade. Então o Critério de Informação Akaike é dado por: O modelo preferido, a partir de uma seleção de modelos, tem o mínimo AIC do grupo. Você pode ver que a AIC cresce à medida que o número de parâmetros, k, aumenta, mas é reduzido se a probabilidade de log negativo aumentar. Essencialmente penaliza modelos que são overfit. Vamos criar modelos AR, MA e ARMA de várias ordens e uma maneira de escolher o melhor modelo para um determinado conjunto de dados é usar o AIC. Isto é o que bem estar fazendo no próximo artigo, principalmente para modelos ARMA. Modelos auto-regressivos de ordem p O primeiro modelo que irão considerar, que forma a base da Parte 1, é o modelo Autoregressivo de ordem p, muitas vezes abreviado para AR (p). No artigo anterior consideramos a caminhada aleatória. Onde cada termo, xt é dependente unicamente do termo anterior, x e um termo estocástico de ruído branco, wt: O modelo autorregressivo é simplesmente uma extensão da caminhada aleatória que inclui termos mais atrás no tempo. A estrutura do modelo é linear. Que é o modelo depende linearmente sobre os termos anteriores, com coeficientes para cada termo. Isto é de onde o regressivo vem em autorregressivo. É essencialmente um modelo de regressão onde os termos anteriores são os preditores. Modelo auto-regressivo de ordem p Um modelo de série temporal,, é um modelo autorregressivo de ordem p. AR (p), se: begin xt alfa1 x ldots alfa x wt soma p alphai x wt end Onde está o ruído branco e alphai em mathbb, com alfap neq 0 para um processo autorregressivo p-order. Se considerarmos o Backward Shift Operator. (Veja o artigo anterior), então podemos reescrever o acima como uma função theta de: begin thetap () xt (1 - alpha1 - alpha2 2 - ldots - alphap) xt wt end Talvez a primeira coisa a notar sobre o modelo AR (p) É que uma caminhada aleatória é simplesmente AR (1) com alfa1 igual à unidade. Como já dissemos acima, o modelo autogressivo é uma extensão da caminhada aleatória, então isso faz sentido. É fácil fazer previsões com o modelo AR (p), para qualquer tempo t, uma vez que temos os coeficientes alfa determinados, nossa estimativa Simplesmente torna-se: começar hat t alfa1 x ldots alphap x final Por isso podemos fazer n-passo adiante previsões produzindo chapéu t, chapéu, chapéu, etc até chapéu. De fato, quando considerarmos os modelos ARMA na Parte 2, usaremos a função R predict para criar previsões (juntamente com bandas de intervalo de confiança de erro padrão) que nos ajudarão a produzir sinais de negociação. Estacionariedade para Processos Autoregressivos Um dos aspectos mais importantes do modelo AR (p) é que nem sempre é estacionário. De fato, a estacionaridade de um modelo particular depende dos parâmetros. Ive tocou sobre isso antes em um artigo anterior. Para determinar se um processo AR (p) é estacionário ou não, precisamos resolver a equação característica. A equação característica é simplesmente o modelo autorregressivo, escrito em forma de mudança para trás, definido como zero: resolvemos esta equação para. Para que o processo autorregressivo particular seja estacionário, precisamos que todos os valores absolutos das raízes desta equação excedam a unidade. Esta é uma propriedade extremamente útil e nos permite calcular rapidamente se um processo AR (p) está parado ou não. Vamos considerar alguns exemplos para tornar esta idéia concreta: Random Walk - O processo AR (1) com alfa1 1 tem a equação característica theta 1 -. Claramente isso tem raiz 1 e como tal não é estacionário. AR (1) - Se escolhemos fração alfa1 obtemos xt frac x wt. Isto nos dá uma equação característica de 1 - frac 0, que tem uma raiz 4 gt 1 e assim este processo particular de AR (1) é estacionário. AR (2) - Se definimos alpha1 alpha2 frac, então temos xt frac x frac x wt. Sua equação característica se torna - frac () () 0, que dá duas raízes de 1, -2. Uma vez que esta tem uma raiz unitária é uma série não-estacionária. No entanto, outras séries AR (2) podem ser estacionárias. Propriedades da Segunda Ordem A média de um processo AR (p) é zero. No entanto, as autocovariâncias e autocorrelações são dadas por funções recursivas, conhecidas como as equações de Yule-Walker. As propriedades completas são dadas abaixo: begin mux E (xt) 0 end começo gammak soma p alphai gama, enspace k 0 end começo rhok sum p alphai rho, enspace k 0 end Note que é necessário conhecer os valores dos parâmetros alfai antes de Calculando as autocorrelações. Agora que weve declarou as propriedades de segunda ordem podemos simular várias ordens de AR (p) e traçar os correlogramms correspondentes. Simulações e Correlogramas Vamos começar com um processo AR (1). Isso é semelhante a uma caminhada aleatória, exceto que alfa1 não tem que igualar a unidade. Nosso modelo vai ter alpha1 0,6. O código R para criar esta simulação é dado como se segue: Note que o nosso loop for é executado de 2 a 100, não 1 a 100, como xt-1 quando t0 não é indexável. Similarmente para processos AR (p) de ordem mais alta, t deve variar de p a 100 neste loop. Podemos traçar a realização deste modelo e seu correlogram associado usando a função layout: Vamos agora tentar montar um processo AR (p) para os dados simulados que acabamos de gerar, para ver se podemos recuperar os parâmetros subjacentes. Você pode se lembrar que nós realizamos um procedimento semelhante no artigo sobre ruído branco e passeios aleatórios. Como se vê, R fornece um comando útil ar para caber modelos autorregressivos. Podemos usar este método para nos dizer primeiro a melhor ordem p do modelo (conforme determinado pela AIC acima) e fornecer-nos com estimativas de parâmetros para o alphai, que podemos então usar para formar intervalos de confiança. Para completar, vamos recriar a série x: Agora usamos o comando ar para ajustar um modelo autorregressivo ao nosso processo AR (1) simulado, usando estimativa de máxima verossimilhança (MLE) como procedimento de ajuste. Primeiramente, extrairemos a melhor ordem obtida: O comando ar determinou com sucesso que nosso modelo de série cronológica subjacente é um processo AR (1). Podemos então obter as estimativas de parâmetro (s) alfa (s): O procedimento MLE produziu uma estimativa, somando 0,523, que é ligeiramente inferior ao verdadeiro valor de alfa1 0,6. Finalmente, podemos usar o erro padrão (com a variância assintótica) para construir 95 intervalos de confiança em torno do (s) parâmetro (s) subjacente (s). Para isso, simplesmente criamos um vetor c (-1.96, 1.96) e depois o multiplicamos pelo erro padrão: O parâmetro verdadeiro está dentro do intervalo de confiança de 95, como esperamos do fato de termos gerado a realização a partir do modelo especificamente . Como se mudarmos o alpha1 -0.6 Como antes podemos ajustar um modelo AR (p) usando ar: Mais uma vez recuperamos a ordem correta do modelo, com uma estimativa muito boa hat -0.597 de alfa1-0.6. Verificamos também que o verdadeiro parâmetro está novamente dentro do intervalo de confiança de 95%. Vamos adicionar mais complexidade aos nossos processos autorregressivos, simulando um modelo de ordem 2. Em particular, definiremos alpha10.666, mas também definiremos alpha2 -0.333. Heres o código completo para simular e plotar a realização, bem como o correlograma de uma série como: Como antes podemos ver que o correlogram difere significativamente do ruído branco, como wed esperar. Existem picos estatisticamente significativos em k1, k3 e k4. Mais uma vez, iríamos usar o comando ar para ajustar um modelo AR (p) à nossa realização subjacente AR (2). O procedimento é semelhante ao do ajuste AR (1): A ordem correta foi recuperada e as estimativas do parâmetro hat 0.696 e hat -0.395 não estão muito longe dos valores dos parâmetros verdadeiros de alfa10.666 e alfa2-0.333. Observe que recebemos uma mensagem de aviso de convergência. Observe também que R realmente usa a função arima0 para calcular o modelo AR. Como aprendemos em artigos subseqüentes, os modelos AR (p) são simplesmente modelos ARIMA (p, 0, 0) e, portanto, um modelo AR é um caso especial de ARIMA sem componente de Moving Average (MA). Bem, também estar usando o comando arima para criar intervalos de confiança em torno de vários parâmetros, razão pela qual weve negligenciado fazê-lo aqui. Agora que nós criamos alguns dados simulados, é hora de aplicar os modelos AR (p) às séries temporais de ativos financeiros. Dados financeiros Amazon Inc. Permite começar por obter o preço da ação para a Amazônia (AMZN) usando quantmod como no último artigo: A primeira tarefa é sempre traçar o preço para uma breve inspeção visual. Neste caso, bem usando os preços de fechamento diário: Você vai notar que o quantmod adiciona alguma formatação para nós, ou seja, a data, e um gráfico um pouco mais bonito do que os gráficos R habituais: Vamos agora tomar os retornos logarítmicos de AMZN e, em seguida, o primeiro - order da série, a fim de converter a série de preços originais de uma série não-estacionária para uma (potencialmente) estacionária. Isso nos permite comparar maçãs com maçãs entre ações, índices ou qualquer outro ativo, para uso em estatísticas multivariadas posteriores, como no cálculo de uma matriz de covariância. Se você quiser uma explicação detalhada sobre o motivo pelo qual os retornos de log são preferíveis, dê uma olhada neste artigo em Quantivity. Permite criar uma nova série, amznrt. Para manter nossos retornos de registro diferenciados: Mais uma vez, podemos plotar a série: Nesta fase, queremos traçar o correlograma. Estavam olhando para ver se a série diferenciada parece ruído branco. Se não houver, então existe correlação serial inexplicada, que pode ser explicada por um modelo autorregressivo. Observamos um pico estatisticamente significativo em k2. Daí há uma possibilidade razoável de correlação seriada inexplicada. Lembre-se, porém, de que isso pode ser devido ao viés de amostragem. Como tal, podemos tentar montar um modelo AR (p) para a série e produzir intervalos de confiança para os parâmetros: Ajustar o modelo autorregressivo ar às séries diferenciadas de primeira ordem de preços de log produz um modelo AR (2), com hat -0.0278 E chapéu -0,0687. Ive também saída a variância austóptica para que possamos calcular erros padrão para os parâmetros e produzir intervalos de confiança. Queremos ver se zero é parte do intervalo de confiança 95, como se fosse, ele reduz a nossa confiança de que temos um verdadeiro processo AR (2) subjacente para a série AMZN. Para calcular os intervalos de confiança no nível 95 para cada parâmetro, usamos os seguintes comandos. Tomamos a raiz quadrada do primeiro elemento da matriz de variância assintótica para produzir um erro padrão, então criamos intervalos de confiança multiplicando-o por -1,96 e 1,96, respectivamente, para o nível 95: Note que isso se torna mais direto quando se usa a função arima , Mas esperar bem até a parte 2 antes de introduzi-la corretamente. Assim, podemos ver que para alfa1 zero está contido dentro do intervalo de confiança, enquanto que para alfa2 zero não está contido no intervalo de confiança. Portanto, devemos ter muito cuidado ao pensar que realmente temos um modelo generative AR (2) subjacente para AMZN. Em particular, observamos que o modelo autorregressivo não leva em conta o agrupamento de volatilidade, o que leva ao agrupamento da correlação serial em séries temporais financeiras. Quando consideramos os modelos ARCH e GARCH em artigos posteriores, iremos explicar isso. Quando chegarmos a usar a função arima completa no próximo artigo, faremos previsões da série diária de preços de registro para nos permitir criar sinais de negociação. SampP500 US Equity Index Junto com ações individuais também podemos considerar o US Equity Index, o SampP500. Vamos aplicar todos os comandos anteriores a esta série e produzir as parcelas como antes: Nós podemos traçar os preços: Como antes, bem criar a diferença de primeira ordem dos preços de fechamento de log: Mais uma vez, podemos traçar a série: É claro Deste gráfico que a volatilidade não é estacionária no tempo. Isto também se reflete na trama do correlograma. Existem muitos picos, incluindo k1 e k2, que são estatisticamente significativos para além de um modelo de ruído branco. Além disso, vemos evidências de processos de memória longa, pois existem picos estatisticamente significativos em k16, k18 e k21: Em última análise, precisamos de um modelo mais sofisticado do que um modelo autorregressivo de ordem p. No entanto, nesta fase ainda podemos tentar ajustar esse modelo. Vamos ver o que temos se fizermos isso: Usando ar produz um modelo AR (22), ou seja, um modelo com 22 parâmetros não-zero O que isso nos diz É indicativo que há provavelmente muito mais complexidade na correlação serial do que Um modelo linear simples de preços passados ​​pode realmente explicar. No entanto, já sabíamos isso porque podemos ver que há uma correlação serial significativa na volatilidade. Por exemplo, considere o período altamente volátil em torno de 2008. Isso motiva o próximo conjunto de modelos, a saber, a média móvel MA (q) ea média móvel ARREA (p, q). Bem, aprender sobre estes dois na Parte 2 deste artigo. Como mencionamos repetidamente, estes nos levarão finalmente à família de modelos ARIMA e GARCH, os quais fornecerão um ajuste muito melhor à complexidade de correlação serial do Samp500. Isso nos permitirá melhorar significativamente nossas previsões e, em última análise, produzir estratégias mais rentáveis. Apenas Começando com Quantitative TradingTime-variando ARMA estimativa de processo estável usando Monte Monte Carlo sequencial este artigo como: Huang, R. Zheng, H. Kuruoglu, EE SIViP (2017) 7: 951. doi: 10.1007s11760-011-0285-x Vários dados de séries temporais em aplicações que vão desde telecomunicações até análise financeira e de sinais geofísicos a sinais biológicos exibem características não-estacionárias e não Gaussianas. - Distribuições de tabelas têm sido modelos populares para dados com características impulsivas e não simétricas. Neste trabalho, apresentamos os processos instáveis ​​de média móvel auto-regressiva variáveis ​​no tempo como um modelo potencial para uma ampla gama de dados, e propomos um método para rastrear os parâmetros variáveis ​​no tempo do processo com - stable distribution. A técnica é baseada em Monte Carlo sequencial, que tem assumido uma ampla popularidade em várias aplicações onde os dados ou o sistema é não-estacionário e não Gaussiano. - Processos estáveis ​​Processos que variam no tempo Sequencial Monte Carlo Referências Miyanaga Y. Miki N. Nagai N. Identificação adaptativa de um modelo de discurso ARMA variando no tempo. Em: IEEE Trans. Acoust. Processo de Sinal de Voz. 34 (3), 423433 (1986) CrossRef Google Scholar Mobarakeh A. Rofooei F. Ahmadi G. Simulação de registros de terremotos utilizando o modelo ARMA (2,1) que varia com o tempo. Probab. Eng. Mech. 17 (1), 1534 (2002) CrossRef Google Scholar Refan, M. Mohammadi, K. Mosavi, M. Tempo variando ARMA processamento em baixo custo dados receptor GPS para melhorar a precisão de posição. Em: Procedimentos de GPS Asiático (2002) Patomaki, L. Kaipio, J. Karjalainen, P. Acompanhamento de EEG não-estacionário com as raízes de modelos ARMA. Em: IEEE 17TH Conferência Anual Engenharia em Medicina e Biologia Society, vol. 2, pp. 877878 (1995) Zielinski J. Bouaynaya N. Schonfeld D. ONeill W. Modelação ARMA tempo-dependente de sequências genómicas. BMC Bioinform. Kuruoglu E. Zerubia J. Modelagem de imagens de radar de abertura sintética com uma generalização da distribuição de Rayleigh. Em: IEEE Trans. Processo de imagem. 13 (4), 527533 (2004) CrossRef Google Acadêmico Bloch K. Arce G. Correlação mediana para a análise de dados de expressão gênica. Processo de Sinal. 83. J. Síntese de modelos bidimensionais alfa-estáveis ​​com dependência de longo alcance. Processo de Sinal. 82. G. Testando processos alfa-estáveis ​​em capturar o comportamento de enfileiramento de redes de teletraficação de banda larga. Processo de Sinal. 82. 18611872 (2002) MATH CrossRef Google Acadêmico Lvy P. Calcul des Probabilits. Gauthier-Villars, Paris (1925) MATH Google Scholar Mandelbrot B. A variação de certos preços especulativos. J. Bus. Utilização de processos estocásticos auto-similares estáveis ​​em alfa para a modelagem de tráfego em redes de banda larga. (4), 394419 (1963) CrossRef Google Acadêmico Gallardo J. Makrakis D. Orozco-Barbosa L. Executar. Eval. 40 (13), 7198 (2000) MATH CrossRef Google Acadêmico Bates, S. Mclaughlin, S. Testando a suposição gaussiana para modelos de teletráfico auto-similares. Processos Aleatórios Não Gaussianos Estáveis: Modelos Estocásticos com Variação Infinita (Modelagem Estocástica). Chapman amp HallCRC, Londres (1994) MATH Google Acadêmico Davis R. Knight K. Liu J. m - estimativa para autoregressões com variância infinita. Stoch. Processo. Appl. 40. 145180 (1992) MathSciNet MATH CrossRef Google Acadêmico Nikias C. Shao M. Processamento de sinais com distribuições e aplicações alfa-estáveis. Wiley-Interscience, Nova Iorque (1995) Google Scholar Lombardi M. Godsill S. Estimativa Bayesiana on-line de sinais em ruído simétrico alfa-estável. Em: IEEE Trans. Processo de Sinal. 54 (2), 775779 (2006) CrossRef Google Scholar Kuruoglu E. Nonlinear least lp-norm filters for nonlinear autoregressive alpha-stable processes. Dígito. Processo de Sinal. 12 (1), 119142 (2002) CrossRef Google Scholar Salas-Gonzalez D. Kuruoglu E. Ruiz D. Modelling with mixture of symmetric stable distributions using Gibbs sampling. Processo de Sinal. 90 (3), 774783 (2018) MATH CrossRef Google Scholar Gencaga D. Ertuzun A. Kuruoglu E. Modeling of non-stationary autoregressive alpha-stable processes by particle filters. Dígito. Signal Process 18 (3), 465478 (2008) CrossRef Google Scholar Gencaga D. Kuruoglu E. Ertuzun A. Yildirim S. Estimation of time-varying AR SS processes using Gibbs sampling. Processo de Sinal. 88 (10), 25642572 (2008) MATH CrossRef Google Scholar Haas, M. Mittnik, S. Paolella, M. Steudee, S. Stable Mixture GARCH Model. National centre of competence in research financial valuation and risk management. National Centre of Competence in Research Financial Valuation and Risk Management Working Paper No. 257 Crisan D. Particle Filters-A Theoretical Perspective. Springer, New York (2001) Google Scholar Doucet A. Godsill S. Andrieu C. On sequential Monte Carlo sampling methods for Bayesian filtering. Stat. Comput. 10 (3), 197208 (2000) CrossRef Google Scholar Djuric P. Kotecha J. Zhang J. Huang Y. Ghirmai T. Bugallo M. Miguez J. Particle filtering. in: IEEE Signal Process. Mag. 20 (5), 1938 (2003) CrossRef Google Scholar Jachan M. Matz G. Hlawatsch F. Time-frequency ARMA models and parameter estimators for underspread nonstationary random processes. in: IEEE Trans. Signal Proc. 55 . 43664381 (2007) MathSciNet CrossRef Google Scholar Haseyama M. Kitajima H. An ARMA order selection method with fuzzy reasoning. Processo de Sinal. 81 (6), 13311335 (2001) MATH CrossRef Google Scholar Capp, O. Moulines, E. Rydn, T. Inference in Hidden Markov Models. Springer series in Statistics, pp. 209244 (2005) Douc, R. Capp, O. Moulines, E. Comparison of resampling schemes for particle filtering. In: Proceedings of the 4th International Symposium on Image and Signal Processing Analysis, pp. 6469 (2005) Copyright information Springer-Verlag London Limited 2017 Authors and Affiliations Renke Huang 1 Hao Zheng 2 Email author Ercan E. Kuruoglu 3 Email author 1. School of Electrical and Computer Engineering Georgia Institute of Technology Atlanta USA 2. School of Electrical and Computer Engineering Georgia Institute of Technology Savannah USA 3. Images and Signals Laboratory Institute of Science and Technology of Information, A. Faedo Italian National Council of Research (ISTI-CNR) Pisa Italy About this article

Comments

Popular Posts