Wednesday, February 22, 2017

Lissage Moyen En R

Gt mav (c) (4,5,4,6), 3) Séries temporelles: Début 1 Fin 4 Fréquence 1 1 NA 4.333333 5.000000 NA Ici, j'essayais de faire une moyenne mobile qui prenait en compte les 3 derniers chiffres donc je m'attendais Pour obtenir seulement deux numéros de retour 8211 4,333333 et 5 8211 et si il y avait des valeurs de NA, je pensais que 8217d être au début de la séquence. En fait, c'est ce que le paramètre 8216sides8217 contrôle: les côtés pour les filtres de convolution seulement. Si les côtés 1 les coefficients de filtre sont pour des valeurs passées seulement si les côtés 2 ils sont centrés autour du lag 0. Dans ce cas la longueur du filtre devrait être impair, mais si elle est pair, plus du filtre est vers l'avant dans le temps que vers l'arrière. Donc, dans notre fonction 8216mav8217, la moyenne mobile ressemble aux deux côtés de la valeur courante plutôt que juste aux valeurs passées. Nous pouvons tweak cela pour obtenir le comportement que nous voulons: gt bibliothèque (zoo) gt rollmean (c 4,5,4,6), 3) 1 4.333333 5.000000 J'ai également réalisé que je peux énumérer toutes les fonctions dans un paquet avec le 8216ls8217 Fonction donc I8217ll être balayage zoo8217s liste des fonctions la prochaine fois que j'ai besoin de faire quelque chose série de temps liés 8211 there8217ll probablement déjà être une fonction pour elle gt ls (quotpackage: zooquot) 1 quotas. Datequot quotas. Date. numericquot quotas. Date. tsquot 4 Quotas. Date. yearmonquot quotas. Date. yearqtrquot quotas. yearmonquot 7 quotas. yearmon. defaultquot quotas. yearqtrquot quotas. yearqtr. defaultquot 10 quotas. zooquot quotas. zoo. defaultquot quotas. zooregquot 13 quotas. zooreg. defaultquot quotautoplot. zooquot quotcbind. zooquot 16 quotcoredataquot quotcoredata. defaultquot quotcoredatalt-quot 19 quotfacetfreequot quotformat. yearqtrquot quotfortify. zooquot 22 quotfrequencylt-quot quotifelse. zooquot quotindexquot 25 quotindexlt-quot quotindex2charquot quotis. regularquot 28 quotis. zooquot quotmake. par. listquot quotMATCHquot 31 quotMATCH. defaultquot quotMATCH. timesquot Quotmedian. zooquot 34 quotmerge. zooquot quotna. aggregatequot quotna. aggregate. defaultquot 37 quotna. approxquot quotna. approx. defaultquot quotna. fillquot 40 quotna. fill. defaultquot quotna. locfquot quotna. locf. defaultquot 43 quotna. splinequot quotna. spline. defaultquot Quotna. StructTSquot 46 quotna. trimquot quotna. trim. defaultquot quotna. trim. tsquot 49 quotORDERquot quotORDER. defaultquot quotpanel. lines. itsquot 52 quotpanel. lines. tisquot quotpanel. lines. tsquot quotpanel. lines. zooquot 55 quotpanel. plot. customquotquotpanel. plot. defaultquot quotpanel. points. itsquot 58 quotpanel. points. tisquot quotpanel. points. tsquot quotpanel. points. zooquot 61 quotpanel. polygon. itsquot quotpanel. polygon. tisquot quotpanel. polygon. tsquot 64 quotpanel. polygon. zooquot quotpanel. rect Est. quelque. secondaire. secondaire. secondaire. secondes. secondes. secondes. secondes. secondes. secondes. quotpanel. text. tsquot 76 quotpanel. text. zooquot quotplot. zooquot quotquantile. zooquot 79 quotrbind. zooquot quotread. zooquot quotrev. zooquot 82 quotrollapplyquot quotrollapplyrquot quotrollmaxquot 85 quotrollmax. defaultquot quotrollmaxrquot quotrollmeanquot 88 quotrollmean. defaultquot quotrollmeanrquot quotrollmedianquot 91 quotrollmedian. defaultquot quotrollmedianrquot quotrollsumquot 94 quotrollsum. defaultquot quotrollsumrquot quotscalexyearmonquot 97 quotscalexyearqtrquot quotscaleyyearmonquot quotscaleyyearqtrquot 100 quotSys. yearmonquot quotSys. yearqtrquot quottimelt-quot 103 quotwrite. zooquot quotxblocksquot quotxblocks. defaultquot 106 quotxtfrm. zooquot quotyearmonquot quotyearmontransquot 109 quotyearqtrquot quotyearqtrtransquot quotzooquot 112 quotzooregquot Be, ShareMoving modèles de lissage moyenne et exponentielles sociables en La première étape pour aller au-delà des modèles moyens, des modèles de marche aléatoires et des modèles de tendances linéaires, les tendances non saisonnières et les tendances peuvent être extrapolés à l'aide d'un modèle de moyenne mobile ou de lissage. L'hypothèse de base derrière les modèles de moyenne et de lissage est que la série temporelle est localement stationnaire avec une moyenne lentement variable. Par conséquent, nous prenons une moyenne mobile (locale) pour estimer la valeur actuelle de la moyenne, puis nous l'utilisons comme prévision pour le proche avenir. Cela peut être considéré comme un compromis entre le modèle moyen et le modèle randonnée aléatoire sans dérive. La même stratégie peut être utilisée pour estimer et extrapoler une tendance locale. Une moyenne mobile est souvent appelée une version quotsmoothedquot de la série originale parce que la moyenne à court terme a pour effet de lisser les bosses dans la série d'origine. En ajustant le degré de lissage (la largeur de la moyenne mobile), on peut espérer trouver un équilibre optimal entre la performance des modèles de marche moyenne et aléatoire. Le modèle le plus simple de la moyenne est le. Moyenne mobile simple (également pondérée): La prévision de la valeur de Y à l'instant t1 qui est faite à l'instant t est égale à la moyenne simple des observations m les plus récentes: (Ici et ailleurs, je vais utiliser le symbole 8220Y-hat8221 pour me tenir Pour une prévision de la série temporelle Y faite le plus tôt possible par un modèle donné). Cette moyenne est centrée à la période t (m1) 2, ce qui implique que l'estimation de la moyenne locale aura tendance à se situer en deçà du vrai Valeur de la moyenne locale d'environ (m1) 2 périodes. Ainsi, nous disons que l'âge moyen des données dans la moyenne mobile simple est (m1) 2 par rapport à la période pour laquelle la prévision est calculée: c'est le temps pendant lequel les prévisions auront tendance à être en retard par rapport aux points de retournement dans les données . Par exemple, si vous faites la moyenne des 5 dernières valeurs, les prévisions seront environ 3 périodes en retard pour répondre aux points de retournement. Notez que si m1, le modèle de moyenne mobile simple (SMA) est équivalent au modèle de marche aléatoire (sans croissance). Si m est très grand (comparable à la longueur de la période d'estimation), le modèle SMA est équivalent au modèle moyen. Comme pour tout paramètre d'un modèle de prévision, il est courant d'ajuster la valeur de k afin d'obtenir le meilleur rapport entre les données, c'est-à-dire les erreurs de prévision les plus faibles en moyenne. Voici un exemple d'une série qui semble présenter des fluctuations aléatoires autour d'une moyenne lentement variable. Tout d'abord, essayons de l'adapter à un modèle de marche aléatoire, ce qui équivaut à une moyenne mobile simple de 1 terme: Le modèle de marche aléatoire répond très rapidement aux changements dans la série, mais en le faisant, il choisit une grande partie du quotnoise dans le Données (les fluctuations aléatoires) ainsi que le quotsignalquot (la moyenne locale). Si nous essayons plutôt une moyenne mobile simple de 5 termes, nous obtenons un ensemble plus lisse de prévisions: La moyenne mobile simple à 5 termes génère des erreurs beaucoup plus faibles que le modèle de marche aléatoire dans ce cas. L'âge moyen des données de cette prévision est de 3 ((51) 2), de sorte qu'il tend à être en retard par rapport aux points de retournement d'environ trois périodes. (Par exemple, un ralentissement semble avoir eu lieu à la période 21, mais les prévisions ne tournent pas jusqu'à plusieurs périodes plus tard.) Notez que les prévisions à long terme du modèle SMA sont une ligne droite horizontale, tout comme dans la marche aléatoire modèle. Ainsi, le modèle SMA suppose qu'il n'y a pas de tendance dans les données. Cependant, alors que les prévisions du modèle randonnée aléatoire sont tout simplement égales à la dernière valeur observée, les prévisions du modèle SMA sont égales à une moyenne pondérée des valeurs récentes. Les limites de confiance calculées par Statgraphics pour les prévisions à long terme de la moyenne mobile simple ne s'élargissent pas à mesure que l'horizon de prévision augmente. Ce n'est évidemment pas correct Malheureusement, il n'existe pas de théorie statistique sous-jacente qui nous indique comment les intervalles de confiance devraient élargir pour ce modèle. Toutefois, il n'est pas trop difficile de calculer des estimations empiriques des limites de confiance pour les prévisions à plus long terme. Par exemple, vous pouvez créer une feuille de calcul dans laquelle le modèle SMA sera utilisé pour prévoir 2 étapes à venir, 3 étapes à venir, etc. dans l'exemple de données historiques. Vous pouvez ensuite calculer les écarts types des erreurs à chaque horizon de prévision, puis construire des intervalles de confiance pour les prévisions à long terme en ajoutant et en soustrayant des multiples de l'écart-type approprié. Si nous essayons une moyenne mobile simple de 9 termes, nous obtenons des prévisions encore plus lisses et plus d'un effet de retard: L'âge moyen est maintenant 5 périodes ((91) 2). Si l'on prend une moyenne mobile à 19 mois, l'âge moyen passe à 10: On remarque que les prévisions sont maintenant en retard par rapport aux points de retournement d'environ 10 périodes. Quelle quantité de lissage est la meilleure pour cette série Voici un tableau qui compare leurs statistiques d'erreur, incluant également une moyenne à 3 termes: Le modèle C, la moyenne mobile à 5 termes, donne la plus faible valeur de RMSE d'une petite marge sur les 3 À moyen terme et à moyen terme, et leurs autres statistiques sont presque identiques. Ainsi, parmi les modèles avec des statistiques d'erreur très similaires, nous pouvons choisir si nous préférerions un peu plus de réactivité ou un peu plus de souplesse dans les prévisions. Le modèle de la moyenne mobile simple décrit ci-dessus a la propriété indésirable de traiter les dernières k observations de manière égale et d'ignorer complètement toutes les observations précédentes. (Retourner au haut de la page.) Lissage Exponentiel Simple (moyenne exponentielle pondérée) Intuitivement, les données passées devraient être actualisées de façon plus graduelle - par exemple, l'observation la plus récente devrait prendre un peu plus de poids que la deuxième plus récente, et la deuxième plus récente devrait avoir un peu plus de poids que la 3ème plus récente, et bientôt. Le simple lissage exponentiel (SES) modèle accomplit cela. Soit 945 une constante de quotslacement constante (un nombre entre 0 et 1). Une façon d'écrire le modèle consiste à définir une série L qui représente le niveau actuel (c'est-à-dire la valeur moyenne locale) de la série estimée à partir des données jusqu'à présent. La valeur de L à l'instant t est calculée récursivement à partir de sa propre valeur précédente comme ceci: La valeur lissée actuelle est donc une interpolation entre la valeur lissée précédente et l'observation courante, où 945 contrôle la proximité de la valeur interpolée à la valeur la plus récente observation. La prévision pour la période suivante est simplement la valeur lissée actuelle: De manière équivalente, nous pouvons exprimer directement la prochaine prévision en fonction des prévisions précédentes et des observations précédentes, dans l'une des versions équivalentes suivantes. Dans la première version, la prévision est une interpolation entre la précédente prévision et l'observation précédente: Dans la deuxième version, la prévision suivante est obtenue en ajustant la prévision précédente dans la direction de l'erreur précédente par une fraction 945. est l'erreur faite à Temps t. Dans la troisième version, la prévision est une moyenne mobile exponentiellement pondérée (c'est-à-dire actualisée) avec le facteur d'actualisation 1-945: La version d'interpolation de la formule de prévision est la plus simple à utiliser si vous mettez en œuvre le modèle sur une feuille de calcul: Cellule unique et contient des références de cellule pointant vers la prévision précédente, l'observation précédente et la cellule où la valeur de 945 est stockée. Notez que si 945 1, le modèle SES est équivalent à un modèle de marche aléatoire (sans croissance). Si 945 0, le modèle SES est équivalent au modèle moyen, en supposant que la première valeur lissée est égale à la moyenne. (Retourner au haut de la page.) L'âge moyen des données dans la prévision de lissage exponentielle simple est de 1 945 par rapport à la période pour laquelle la prévision est calculée. (Ce n'est pas censé être évident, mais on peut facilement le montrer en évaluant une série infinie.) Par conséquent, la prévision moyenne mobile simple tend à être en retard par rapport aux points de retournement d'environ 1 945 périodes. Par exemple, lorsque 945 0,5 le lag est 2 périodes lorsque 945 0,2 le retard est de 5 périodes lorsque 945 0,1 le lag est de 10 périodes, et ainsi de suite. Pour un âge moyen donné (c'est-à-dire le décalage), le lissage exponentiel simple (SES) est un peu supérieur à la moyenne mobile simple (SMA), car il place relativement plus de poids sur l'observation la plus récente. Il est un peu plus sensible aux changements survenus dans le passé récent. Par exemple, un modèle SMA avec 9 termes et un modèle SES avec 945 0,2 ont tous deux une moyenne d'âge de 5 pour les données dans leurs prévisions, mais le modèle SES met plus de poids sur les 3 dernières valeurs que le modèle SMA et à la Un autre avantage important du modèle SES par rapport au modèle SMA est que le modèle SES utilise un paramètre de lissage qui est variable en continu, de sorte qu'il peut facilement être optimisé En utilisant un algorithme quotsolverquot pour minimiser l'erreur quadratique moyenne. La valeur optimale de 945 dans le modèle SES de cette série s'élève à 0,2961, comme indiqué ici: L'âge moyen des données de cette prévision est de 10,2961 3,4 périodes, ce qui est similaire à celle d'une moyenne mobile simple à 6 termes. Les prévisions à long terme du modèle SES sont une droite horizontale. Comme dans le modèle SMA et le modèle randonnée aléatoire sans croissance. Cependant, notez que les intervalles de confiance calculés par Statgraphics divergent maintenant d'une manière raisonnable et qu'ils sont sensiblement plus étroits que les intervalles de confiance pour le modèle de marche aléatoire. Le modèle SES suppose que la série est quelque peu plus prévisible que le modèle de marche aléatoire. Un modèle SES est en fait un cas particulier d'un modèle ARIMA. La théorie statistique des modèles ARIMA fournit une base solide pour le calcul des intervalles de confiance pour le modèle SES. En particulier, un modèle SES est un modèle ARIMA avec une différence non saisonnière, un terme MA (1) et aucun terme constant. Autrement connu sous le nom de modèle de MARIMA (0,1,1) sans constantquot. Le coefficient MA (1) du modèle ARIMA correspond à la quantité 1 945 dans le modèle SES. Par exemple, si vous ajustez un modèle ARIMA (0,1,1) sans constante à la série analysée ici, le coefficient MA (1) estimé s'avère être 0.7029, ce qui est presque exactement un moins 0.2961. Il est possible d'ajouter l'hypothèse d'une tendance linéaire constante non nulle à un modèle SES. Pour cela, il suffit de spécifier un modèle ARIMA avec une différence non saisonnière et un terme MA (1) avec une constante, c'est-à-dire un modèle ARIMA (0,1,1) avec constante. Les prévisions à long terme auront alors une tendance égale à la tendance moyenne observée sur l'ensemble de la période d'estimation. Vous ne pouvez pas le faire en conjonction avec l'ajustement saisonnier, car les options de réglage saisonnier sont désactivées lorsque le type de modèle est réglé sur ARIMA. Cependant, vous pouvez ajouter une tendance exponentielle à long terme constante à un modèle de lissage exponentiel simple (avec ou sans ajustement saisonnier) en utilisant l'option d'ajustement de l'inflation dans la procédure de prévision. Le taux d'inflation appropriée (taux de croissance en pourcentage) par période peut être estimé comme le coefficient de pente dans un modèle de tendance linéaire adapté aux données en conjonction avec une transformation logarithmique naturelle, ou il peut être basé sur d'autres informations indépendantes concernant les perspectives de croissance à long terme . (Retour au haut de la page) Browns Linear (c'est-à-dire double) Lissage exponentiel Les modèles SMA et SES supposent qu'il n'y a aucune tendance des données (ce qui est normalement correct ou au moins pas trop mauvais pour 1- Des prévisions d'avance lorsque les données sont relativement bruyantes), et elles peuvent être modifiées pour incorporer une tendance linéaire constante comme indiqué ci-dessus. Qu'en est-il des tendances à court terme Si une série affiche un taux de croissance variable ou un schéma cyclique qui se distingue clairement du bruit, et s'il est nécessaire de prévoir plus d'une période à venir, l'estimation d'une tendance locale pourrait également être un problème. Le modèle de lissage exponentiel simple peut être généralisé pour obtenir un modèle linéaire de lissage exponentiel (LES) qui calcule des estimations locales de niveau et de tendance. Le modèle de tendance le plus simple variant dans le temps est le modèle de lissage exponentiel linéaire de Browns, qui utilise deux séries lissées différentes qui sont centrées à différents moments. La formule de prévision est basée sur une extrapolation d'une droite passant par les deux centres. (Une version plus sophistiquée de ce modèle, Holt8217s, est discutée ci-dessous.) La forme algébrique du modèle de lissage exponentiel linéaire de Brown8217s, comme celle du modèle de lissage exponentiel simple, peut être exprimée sous différentes formes différentes mais équivalentes. La forme quotométrique de ce modèle est habituellement exprimée comme suit: Soit S la série lissée par singulier obtenue en appliquant un lissage exponentiel simple à la série Y. C'est-à-dire que la valeur de S à la période t est donnée par: (Rappelons que, sous simple Le lissage exponentiel, ce serait la prévision de Y à la période t1.) Puis, désignons par Squot la série doublement lissée obtenue en appliquant le lissage exponentiel simple (en utilisant le même 945) à la série S: Enfin, la prévision pour Y tk. Pour tout kgt1, est donnée par: Ceci donne e 1 0 (c'est-à-dire tricher un peu, et laisser la première prévision égaler la première observation réelle), et e 2 Y 2 8211 Y 1. Après quoi les prévisions sont générées en utilisant l'équation ci-dessus. Cela donne les mêmes valeurs ajustées que la formule basée sur S et S si ces derniers ont été démarrés en utilisant S 1 S 1 Y 1. Cette version du modèle est utilisée sur la page suivante qui illustre une combinaison de lissage exponentiel avec ajustement saisonnier. Holt8217s Linear Exponential Smoothing Brown8217s Le modèle LES calcule les estimations locales de niveau et de tendance en lissant les données récentes, mais le fait qu'il le fait avec un seul paramètre de lissage impose une contrainte sur les modèles de données qu'il peut adapter: le niveau et la tendance Ne sont pas autorisés à varier à des taux indépendants. Le modèle LES de Holt8217s aborde cette question en incluant deux constantes de lissage, une pour le niveau et une pour la tendance. A tout moment t, comme dans le modèle Brown8217s, il existe une estimation L t du niveau local et une estimation T t de la tendance locale. Ici, elles sont calculées récursivement à partir de la valeur de Y observée au temps t et des estimations précédentes du niveau et de la tendance par deux équations qui leur appliquent un lissage exponentiel séparément. Si le niveau et la tendance estimés au temps t-1 sont L t82091 et T t-1. Respectivement, alors la prévision pour Y tshy qui aurait été faite au temps t-1 est égale à L t-1 T t-1. Lorsque la valeur réelle est observée, l'estimation actualisée du niveau est calculée récursivement en interpolant entre Y tshy et sa prévision, L t-1 T t-1, en utilisant des poids de 945 et 1 945. La variation du niveau estimé, À savoir L t 8209 L t82091. Peut être interprété comme une mesure bruyante de la tendance à l'instant t. L'estimation actualisée de la tendance est ensuite calculée récursivement en interpolant entre L t 8209 L t82091 et l'estimation précédente de la tendance, T t-1. Utilisant des poids de 946 et 1-946: L'interprétation de la constante de lissage de tendance 946 est analogue à celle de la constante de lissage de niveau 945. Les modèles avec de petites valeurs de 946 supposent que la tendance ne change que très lentement avec le temps tandis que les modèles avec 946 supposent qu'il change plus rapidement. Un modèle avec un grand 946 croit que l'avenir lointain est très incertain, parce que les erreurs dans l'estimation de la tendance deviennent très importantes lors de la prévision de plus d'une période à venir. Les constantes de lissage 945 et 946 peuvent être estimées de la manière habituelle en minimisant l'erreur quadratique moyenne des prévisions à 1 pas. Lorsque cela est fait dans Statgraphics, les estimations s'avèrent être 945 0,3048 et 946 0,008. La très petite valeur de 946 signifie que le modèle suppose très peu de changement dans la tendance d'une période à l'autre, donc, fondamentalement, ce modèle essaie d'estimer une tendance à long terme. Par analogie avec la notion d'âge moyen des données utilisées pour estimer le niveau local de la série, l'âge moyen des données utilisées pour estimer la tendance locale est proportionnel à 1 946, mais pas exactement égal à celui-ci . Dans ce cas, cela s'avère être 10.006 125. Ceci n'est pas un nombre très précis dans la mesure où la précision de l'estimation de 946 est vraiment de 3 décimales, mais elle est du même ordre de grandeur que la taille de l'échantillon de 100, donc Ce modèle est la moyenne sur beaucoup d'histoire dans l'estimation de la tendance. Le graphique ci-dessous montre que le modèle ERP estime une tendance locale légèrement plus grande à la fin de la série que la tendance constante estimée dans le modèle SEStrend. En outre, la valeur estimée de 945 est presque identique à celle obtenue en ajustant le modèle SES avec ou sans tendance, donc c'est presque le même modèle. Maintenant, est-ce que ces ressembler à des prévisions raisonnables pour un modèle qui est censé être l'estimation d'une tendance locale Si vous 8220eyeball8221 cette intrigue, il semble que la tendance locale a tourné vers le bas à la fin de la série Qu'est-ce qui s'est passé Les paramètres de ce modèle Ont été estimées en minimisant l'erreur au carré des prévisions à un pas, et non des prévisions à plus long terme, auquel cas la tendance ne fait pas beaucoup de différence. Si tout ce que vous regardez sont des erreurs en une étape, vous ne voyez pas l'image plus grande des tendances sur (disons) 10 ou 20 périodes. Afin d'obtenir ce modèle plus en phase avec notre extrapolation ophtalmique des données, nous pouvons ajuster manuellement la constante de lissage de tendance afin qu'il utilise une ligne de base plus courte pour l'estimation de tendance. Par exemple, si nous choisissons de fixer 946 0,1, alors l'âge moyen des données utilisées pour estimer la tendance locale est de 10 périodes, ce qui signifie que nous faisons la moyenne de la tendance au cours des 20 dernières périodes. Here8217s ce que l'intrigue de prévision ressemble si nous fixons 946 0.1 tout en gardant 945 0.3. Cela semble intuitivement raisonnable pour cette série, bien qu'il soit probablement dangereux d'extrapoler cette tendance plus de 10 périodes dans l'avenir. Qu'en est-il des statistiques d'erreur Voici une comparaison de modèles pour les deux modèles présentés ci-dessus ainsi que trois modèles SES. La valeur optimale de 945 pour le modèle SES est d'environ 0,3, mais des résultats similaires (avec un peu plus ou moins de réactivité, respectivement) sont obtenus avec 0,5 et 0,2. (A) Holts linéaire exp. Lissage avec alpha 0,3048 et bêta 0,008 (B) Holts linéaire exp. Lissage avec alpha 0.3 et bêta 0.1 (C) Lissage exponentiel simple avec alpha 0.5 (D) Lissage exponentiel simple avec alpha 0.3 (E) Lissage exponentiel simple avec alpha 0.2 Leurs stats sont quasiment identiques, donc nous ne pouvons pas vraiment faire le choix sur la base Des erreurs de prévision à 1 pas dans l'échantillon de données. Nous devons nous rabattre sur d'autres considérations. Si nous croyons fermement qu'il est logique de baser l'estimation de la tendance actuelle sur ce qui s'est produit au cours des 20 dernières périodes, nous pouvons faire valoir le modèle ERP avec 945 0,3 et 946 0,1. Si nous voulons être agnostiques quant à savoir s'il existe une tendance locale, alors l'un des modèles SSE pourrait être plus facile à expliquer et donnerait également plus de prévisions moyennes de route pour les 5 ou 10 prochaines périodes. (Retourner au haut de la page.) Quel type d'extrapolation de tendance est le mieux: horizontal ou linéaire Les données empiriques suggèrent que, si les données ont déjà été ajustées (si nécessaire) pour l'inflation, il peut être imprudent d'extrapoler des courbes linéaires à court terme Tendances très loin dans l'avenir. Les tendances évidentes aujourd'hui peuvent ralentir à l'avenir en raison de causes variées telles que l'obsolescence des produits, la concurrence accrue, les ralentissements cycliques ou les retournements dans une industrie. Pour cette raison, le lissage exponentiel simple obtient souvent une meilleure sortie de l'échantillon que ce qui pourrait être attendu autrement, malgré son extrapolation de tendance horizontale quotnaivequot. Les modifications de tendance amorties du modèle de lissage exponentiel linéaire sont aussi souvent utilisées dans la pratique pour introduire une note de conservatisme dans ses projections de tendance. Le modèle ERP à tendance amortie peut être mis en œuvre comme un cas particulier d'un modèle ARIMA, en particulier un modèle ARIMA (1,1,2). Il est possible de calculer des intervalles de confiance autour des prévisions à long terme produites par les modèles de lissage exponentiel, en les considérant comme des cas spéciaux de modèles ARIMA. La largeur des intervalles de confiance dépend de (i) l'erreur RMS du modèle, (ii) le type de lissage (simple ou linéaire) (iii) la valeur (S) de la constante de lissage et (iv) le nombre de périodes à venir que vous prévoyez. En général, les intervalles s'étalent plus rapidement lorsque 945 devient plus grand dans le modèle SES et ils s'étalent beaucoup plus rapidement lorsque linéaire plutôt que de simple lissage est utilisé. Ce sujet est abordé plus en détail dans la section des modèles ARIMA des notes. (Retour au début de la page.) Utilisation de R pour l'analyse des séries temporelles Analyse des séries chronologiques Cette brochure vous explique comment utiliser le logiciel de statistiques R pour effectuer des analyses simples qui sont communes à l'analyse des données de séries chronologiques. Cette brochure suppose que le lecteur a quelques connaissances de base sur l'analyse des séries temporelles et que le but principal de ce livret n'est pas d'expliquer l'analyse des séries temporelles mais plutôt d'expliquer comment effectuer ces analyses à l'aide de R. Si vous êtes nouveau dans la série chronologique Analyse, et que vous souhaitez en savoir plus sur les concepts présentés ici, je recommande vivement le livre Open University 8220Time series8221 (code produit M24902), disponible auprès de l'Open University Shop. Dans cette brochure, j'utiliserai des ensembles de données de séries temporelles qui ont été gentiment mis à disposition par Rob Hyndman dans sa bibliothèque de données de séries chronologiques à robjhyndmanTSDL. Si vous aimez cette brochure, vous pouvez également consulter ma brochure sur l'utilisation de R pour les statistiques biomédicales, un-little-book-of-r-for-biomedical-statistics. readthedocs. org. Et mon livret sur l'utilisation de R pour l'analyse multivariée, little-book-of-r-for-multivariate-analysis. readthedocs. org. Lecture des données de séries chronologiques La première chose que vous voudrez faire pour analyser vos données de séries chronologiques sera de la lire dans R et de tracer la série temporelle. Vous pouvez lire les données dans R à l'aide de la fonction scan (), qui suppose que vos données pour des points de temps successifs se trouvent dans un fichier texte simple avec une colonne. Par exemple, le fichier robjhyndmantsdldatamisckings. dat contient des données sur l'âge de la mort des rois successifs d'Angleterre, à commencer par Guillaume le Conquérant (source originale: Hipel et Mcleod, 1994). L'ensemble de données ressemble à ceci: Seules les premières lignes du fichier ont été affichées. Les trois premières lignes contiennent quelques commentaires sur les données, et nous voulons l'ignorer lorsque nous lirons les données dans R. Nous pouvons utiliser ceci en utilisant le paramètre 8220skip8221 de la fonction scan (), qui spécifie combien de lignes en haut de Le fichier à ignorer. Pour lire le fichier dans R, en ignorant les trois premières lignes, nous tapons: Dans ce cas, l'âge de la mort de 42 rois successifs de l'Angleterre a été lue dans la variable 8216kings8217. Une fois que vous avez lu les données de la série temporelle dans R, l'étape suivante consiste à stocker les données dans un objet de série temporelle dans R, de sorte que vous pouvez utiliser les nombreuses fonctions de R8217s pour analyser des données de séries temporelles. Pour stocker les données dans un objet de série temporelle, nous utilisons la fonction ts () dans R. Par exemple, pour stocker les données dans la variable 8216kings8217 comme un objet série temporelle en R, nous tapons: Parfois, Ont été recueillis à des intervalles réguliers inférieurs à un an, par exemple mensuels ou trimestriels. Dans ce cas, vous pouvez spécifier le nombre de fois que les données ont été collectées par an en utilisant le paramètre 8216frequency8217 dans la fonction ts (). Pour les données de séries temporelles mensuelles, vous définissez la fréquence12, alors que pour les données de séries chronologiques trimestrielles, vous réglez la fréquence4. Vous pouvez également spécifier la première année où les données ont été collectées et le premier intervalle de cette année en utilisant le paramètre 8216start8217 dans la fonction ts (). Par exemple, si le premier point de données correspond au deuxième trimestre de 1986, vous devez définir startc (1986,2). Un exemple est un ensemble de données sur le nombre de naissances par mois dans la ville de New York, de janvier 1946 à décembre 1959 (initialement recueillies par Newton). Ces données sont disponibles dans le fichier robjhyndmantsdldatadatanybirths. dat Nous pouvons lire les données dans R et les stocker en tant qu'objet de séries chronologiques en tapant: De même, le fichier robjhyndmantsdldatadatafancy. dat contient des ventes mensuelles pour une boutique de souvenirs dans une station balnéaire de Queensland, Australie, de janvier 1987 à décembre 1993 (données originales de Wheelwright et Hyndman, 1998). Nous pouvons lire les données dans R en tapant: Plotting Time Series Une fois que vous avez lu une série chronologique dans R, l'étape suivante consiste généralement à faire un tracé des données de séries chronologiques, que vous pouvez faire avec la fonction plot. ts () Dans R. Par exemple, pour tracer la série chronologique de l'âge de la mort de 42 rois successifs d'Angleterre, nous tapons: On peut voir à partir du tracé temporel que cette série temporelle pourrait probablement être décrite en utilisant un modèle additif, puisque les fluctuations aléatoires Dans les données sont à peu près constante en taille dans le temps. De même, pour tracer la série chronologique du nombre de naissances par mois à New York, nous dactylographions: Nous pouvons voir à partir de cette série chronologique qu'il semble y avoir une variation saisonnière du nombre de naissances par mois: il ya un pic tous les étés , Et un abreuvoir chaque hiver. Une fois de plus, il semble que cette série temporelle pourrait probablement être décrite en utilisant un modèle additif, car les fluctuations saisonnières sont à peu près constantes dans la taille au fil du temps et ne semblent pas dépendre du niveau de la série temporelle et les fluctuations aléatoires semblent également être À peu près constante dans le temps. De même, pour tracer la série chronologique des ventes mensuelles pour le magasin de souvenirs dans une station balnéaire du Queensland, en Australie, nous dactylographions: Dans ce cas, il semble qu'un modèle additif ne convient pas pour décrire cette série chronologique, puisque la taille Des fluctuations saisonnières et des fluctuations aléatoires semblent augmenter avec le niveau de la série chronologique. Ainsi, nous pourrions avoir besoin de transformer les séries chronologiques afin d'obtenir une série temporelle transformée qui peut être décrite en utilisant un modèle additif. Par exemple, nous pouvons transformer la série chronologique en calculant le logarithme naturel des données originales: Ici, nous pouvons voir que la taille des fluctuations saisonnières et des fluctuations aléatoires dans la série temporelle log-transformée semblent être à peu près constantes dans le temps et ne Ne dépendent pas du niveau de la série chronologique. Ainsi, la série temporelle log-transformée peut probablement être décrite en utilisant un modèle additif. Décomposer les séries temporelles La décomposition d'une série chronologique consiste à la séparer en composantes constituantes, qui sont habituellement une composante de tendance et une composante irrégulière, et s'il s'agit d'une série temporelle saisonnière, une composante saisonnière. Décomposition des données non saisonnières Une série chronologique non saisonnière se compose d'une composante de tendance et d'une composante irrégulière. La décomposition de la série chronologique implique d'essayer de séparer les séries chronologiques de ces composantes, c'est-à-dire d'estimer la composante de la tendance et la composante irrégulière. Pour estimer la composante de tendance d'une série temporelle non saisonnière qui peut être décrite à l'aide d'un modèle additif, il est courant d'utiliser une méthode de lissage, comme le calcul de la moyenne mobile simple des séries chronologiques. La fonction SMA () du paquet 8220TTR8221 R peut être utilisée pour lisser les données de séries temporelles en utilisant une moyenne mobile simple. Pour utiliser cette fonction, nous devons d'abord installer le paquet 8220TTR8221 R (pour savoir comment installer un paquet R, voir Comment installer un paquet R). Une fois que vous avez installé le paquet 8220TTR8221 R, vous pouvez charger le paquet 8220TTR8221 R en tapant: Vous pouvez ensuite utiliser la fonction 8220SMA () 8221 pour lisser les données de séries temporelles. Pour utiliser la fonction SMA (), vous devez spécifier l'ordre (span) de la moyenne mobile simple, en utilisant le paramètre 8220n8221. Par exemple, pour calculer une moyenne mobile simple de l'ordre 5, on place n5 dans la fonction SMA (). Par exemple, comme nous l'avons vu ci-dessus, la série chronologique de l'âge de décès de 42 rois successifs d'Angleterre est non saisonnière et peut probablement être décrite à l'aide d'un modèle additif puisque les fluctuations aléatoires des données sont à peu près constantes en taille Temps: Ainsi, nous pouvons essayer d'estimer la composante de tendance de cette série de temps en lissant en utilisant une moyenne mobile simple. Pour lisser la série chronologique à l'aide d'une moyenne mobile simple de l'ordre 3, et tracer les données de la série chronologique lissée, nous tapons: Il semble toujours y avoir beaucoup de fluctuations aléatoires dans la série chronologique lissée en utilisant une moyenne mobile simple d'ordre 3. Ainsi, pour estimer la composante de la tendance avec plus de précision, nous pourrions vouloir essayer de lisser les données avec une moyenne mobile simple d'un ordre supérieur. Cela prend un peu d'essai et d'erreur, pour trouver la bonne quantité de lissage. Par exemple, nous pouvons essayer d'utiliser une moyenne mobile simple de l'ordre 8: Les données lissées avec une moyenne mobile simple d'ordre 8 donnent une image plus claire de la composante de la tendance et nous pouvons voir que l'âge de la mort des rois anglais semble Ont diminué d'environ 55 ans à environ 38 ans pendant le règne des 20 premiers rois, puis augmenté après cela à environ 73 ans à la fin du règne du 40e roi dans la série chronologique. Décomposition des données saisonnières Une série temporelle saisonnière comprend une composante tendancielle, une composante saisonnière et une composante irrégulière. La décomposition de la série chronologique consiste à séparer les séries temporelles en ces trois composantes, c'est-à-dire à estimer ces trois composantes. Pour estimer la composante de tendance et la composante saisonnière d'une série temporelle saisonnière qui peut être décrite à l'aide d'un modèle additif, nous pouvons utiliser la fonction 8220decompose () 8221 dans R. Cette fonction estime les composantes tendances, saisonnières et irrégulières d'une série temporelle qui Peut être décrite en utilisant un modèle additif. La fonction 8220decompose () 8221 renvoie un objet de liste comme résultat, où les estimations de la composante saisonnière, de la composante de tendance et de la composante irrégulière sont stockées dans des éléments nommés de cette liste, appelés respectivement 8220seasonal8221, 8220trend8221 et 8220random8221. Par exemple, comme nous l'avons vu plus haut, la série chronologique du nombre de naissances par mois dans la ville de New York est saisonnière avec un pic chaque été et chaque hiver et peut probablement être décrite en utilisant un modèle additif puisque les fluctuations saisonnières et aléatoires semblent Les valeurs estimées des composantes saisonnières, tendancielles et irrégulières sont maintenant stockées dans des variables de naissances, de séries, de séries de naissances, de tendances de la natalité et des séries de naissances, selon l'âge. Par exemple, nous pouvons imprimer les valeurs estimées de la composante saisonnière en tapant: Les facteurs saisonniers estimés sont donnés pour les mois de janvier à décembre et sont les mêmes pour chaque année. Le plus important facteur saisonnier est celui de juillet (environ 1,46), et le plus bas pour février (environ -2,08), ce qui indique qu'il semble y avoir un pic de naissances en juillet et un creux de naissances en février de chaque année. Nous pouvons tracer la tendance estimée, les composantes saisonnières et les composantes irrégulières de la série chronologique en utilisant la fonction 8220plot () 8221, par exemple: La courbe ci-dessus montre la série chronologique originale (en haut), la composante de tendance estimée La composante saisonnière estimée (troisième du haut) et la composante irrégulière estimée (en bas). On constate que la composante tendancielle estimée montre une légère diminution, passant d'environ 24 en 1947 à environ 22 en 1948, suivie d'une augmentation régulière d'environ 27 en 1959. Ajustement saisonnier Si vous avez une série chronologique saisonnière qui peut être décrite en utilisant Un modèle additif, vous pouvez ajuster les séries chronologiques en fonction de l'estimation de la composante saisonnière et soustraire la composante saisonnière estimée de la série chronologique initiale. Nous pouvons le faire en utilisant l'estimation de la composante saisonnière calculée par la fonction 8220decompose () 8221. Par exemple, pour ajuster les séries temporelles du nombre de naissances par mois à New York, nous pouvons estimer la composante saisonnière en utilisant 8220decompose () 8221, puis soustraire la composante saisonnière de la série chronologique originale: Désaisonnalisées, en utilisant la fonction 8220plot () 8221, en tapant: Vous pouvez constater que la variation saisonnière a été supprimée de la série chronologique corrigée des variations saisonnières. La série chronologique corrigée des variations saisonnières ne contient plus que la composante tendance et une composante irrégulière. Prévisions utilisant le lissage exponentiel Le lissage exponentiel peut être utilisé pour établir des prévisions à court terme pour les données de séries chronologiques. Lissage exponentiel simple Si vous avez une série temporelle qui peut être décrite en utilisant un modèle additif avec un niveau constant et aucune saisonnalité, vous pouvez utiliser le lissage exponentiel simple pour faire des prévisions à court terme. La méthode de lissage exponentiel simple permet d'estimer le niveau au moment du temps courant. Le lissage est contrôlé par le paramètre alpha pour l'estimation du niveau à l'instant actuel. La valeur de alpha est comprise entre 0 et 1. Les valeurs d'alpha qui sont proches de 0 signifient que peu de poids est placé sur les observations les plus récentes lors des prévisions de valeurs futures. Par exemple, le fichier robjhyndmantsdldatahurstprecip1.dat contient les précipitations annuelles totales en pouces pour Londres, à partir de 1813-1912 (données originales de Hipel et McLeod, 1994). Nous pouvons lire les données dans R et le tracer en tapant: Vous pouvez voir à partir du graphique qu'il ya à peu près un niveau constant (la moyenne reste constante à environ 25 pouces). Les fluctuations aléatoires des séries temporelles semblent être à peu près constantes dans le temps, il est donc probablement approprié de décrire les données en utilisant un modèle additif. Ainsi, nous pouvons faire des prévisions en utilisant un lissage exponentiel simple. Pour faire des prévisions utilisant le lissage exponentiel simple dans R, nous pouvons adapter un modèle prédictif simple de prédiction de lissage en utilisant la fonction 8220HoltWinters () 8221 dans R. Pour utiliser HoltWinters () pour le lissage exponentiel simple, nous devons définir les paramètres betaFALSE et gammaFALSE dans le HoltWinters () (les paramètres bêta et gamma sont utilisés pour le lissage exponentiel Holt8217s ou le lissage exponentiel Holt-Winters, comme décrit ci-dessous). La fonction HoltWinters () renvoie une variable de liste, qui contient plusieurs éléments nommés. Par exemple, pour utiliser le lissage exponentiel simple pour faire des prévisions pour la série chronologique des précipitations annuelles à Londres, nous tapons: La sortie de HoltWinters () nous indique que la valeur estimée du paramètre alpha est d'environ 0,024. Ceci est très proche de zéro, nous indiquant que les prévisions sont basées à la fois sur des observations récentes et moins récentes (bien qu'un peu plus de poids soit placé sur les observations récentes). Par défaut, HoltWinters () ne fait que des prévisions pour la même période couverte par notre série chronologique originale. Dans ce cas, notre série chronologique originale comprenait des précipitations pour Londres de 1813 à 1912, donc les prévisions sont également pour 1813-1912. Dans l'exemple ci-dessus, nous avons stocké la sortie de la fonction HoltWinters () dans la variable de liste 8220rainseriesforecasts8221. Les prévisions faites par HoltWinters () sont stockées dans un élément nommé de cette variable de liste appelée 8220fitted8221, nous pouvons donc obtenir leurs valeurs en tapant: Nous pouvons tracer la série chronologique d'origine en fonction des prévisions en tapant: Noir, et les prévisions comme une ligne rouge. La série chronologique des prévisions est beaucoup plus fluide que la série temporelle des données originales ici. Pour mesurer l'exactitude des prévisions, nous pouvons calculer la somme des erreurs carrées pour les erreurs de prévision dans l'échantillon, c'est-à-dire les erreurs de prévision pour la période couverte par notre série chronologique initiale. La somme de carré-erreurs est stockée dans un élément nommé de la variable de liste 8220rainseriesforecasts8221 appelée 8220SSE8221, de sorte que nous pouvons obtenir sa valeur en tapant: C'est-à-dire ici la somme de carré-erreurs est 1828.855. Il est courant dans le lissage exponentiel simple d'utiliser la première valeur de la série chronologique comme valeur initiale du niveau. Par exemple, dans la série chronologique des précipitations à Londres, la première valeur est 23,56 (pouces) pour les précipitations en 1813. Vous pouvez spécifier la valeur initiale du niveau dans la fonction HoltWinters () en utilisant le paramètre 8220l. start8221. Par exemple, pour faire des prévisions avec la valeur initiale du niveau fixé à 23.56, nous tapons: Comme expliqué ci-dessus, par défaut HoltWinters () ne fait que des prévisions pour la période couverte par les données originales, soit 1813-1912 pour la pluviométrie des séries chronologiques. Nous pouvons faire des prévisions pour d'autres points de temps en utilisant la fonction 8220forecast. HoltWinters () 8221 dans le package R 8220forecast8221. Pour utiliser la fonction forecast. HoltWinters (), nous devons d'abord installer le package 8220forecast8221 R (pour savoir comment installer un package R, voir Comment installer un package R). Une fois que vous avez installé le paquet 8220forecast8221 R, vous pouvez charger le paquet 8220forecast8221 R en tapant: Lorsque vous utilisez la fonction forecast. HoltWinters (), comme premier argument (entrée), vous passez le modèle prédictif que vous avez déjà installé à l'aide du Fonction HoltWinters (). Par exemple, dans le cas de la série chronologique des précipitations, nous avons stocké le modèle prédictif fait en utilisant HoltWinters () dans la variable 8220rainseriesforecasts8221. Vous spécifiez combien d'autres points de temps vous souhaitez établir des prévisions en utilisant le paramètre 8220h8221 de forecast. HoltWinters (). Par exemple, pour faire une prévision des précipitations pour les années 1814-1820 (8 ans de plus) en utilisant forecast. HoltWinters (), nous tapons: La fonction forecast. HoltWinters () vous donne la prévision pour un an, un intervalle de prédiction de 80 pour La prévision et un intervalle de prévision de 95 pour la prévision. Par exemple, la prévision des précipitations pour 1920 est d'environ 24,68 pouces, avec un intervalle de prédiction de 95 (16,24, 33,11). Pour tracer les prévisions faites par forecast. HoltWinters (), nous pouvons utiliser la fonction 8220plot. forecast () 8221: Ici, les prévisions pour 1913-1920 sont tracées sous la forme d'une ligne bleue, l'intervalle de prédiction de 80 comme zone orange ombragée et 95 comme zone jaune ombragée. Les erreurs 8216forecast8217 sont calculées comme les valeurs observées moins les valeurs prédites, pour chaque point temporel. Nous ne pouvons que calculer les erreurs de prévision pour la période couverte par notre série chronologique initiale, qui est 1813-1912 pour les données de précipitations. Comme nous l'avons mentionné plus haut, une mesure de la précision du modèle prédictif est la somme des erreurs carrées (SSE) pour les erreurs de prévision dans l'échantillon. Les erreurs de prévision dans l'échantillon sont stockées dans l'élément nommé 8220residuals8221 de la variable list renvoyée par forecast. HoltWinters (). Si le modèle prédictif ne peut être amélioré, il ne devrait y avoir aucune corrélation entre les erreurs de prévision pour les prédictions successives. En d'autres termes, s'il existe des corrélations entre les erreurs de prévision pour les prévisions successives, il est probable que les prévisions de lissage exponentielles simples pourraient être améliorées par une autre technique de prévision. Pour déterminer si tel est le cas, on peut obtenir un corrélogramme des erreurs de prévision dans l'échantillon pour les lags 1-20. Nous pouvons calculer un corrélogramme des erreurs de prévision en utilisant la fonction 8220acf () 8221 dans R. Pour spécifier le décalage maximal que nous voulons examiner, nous utilisons le paramètre 8220lag. max8221 dans acf (). Par exemple, pour calculer un corrélogramme des erreurs de prévision dans les données de précipitations de Londres pour les intervalles de 1 à 20, nous tapons: Vous pouvez voir à partir du corrélogramme de l'échantillon que l'autocorrélation au retard 3 touche juste les limites de signification. Pour vérifier s'il existe des indices significatifs de corrélations non nulles aux intervalles de 1 à 20, nous pouvons effectuer un test de Ljung-Box. Cela peut être fait en R en utilisant la fonction 8220Box. test () 8221. Le délai maximal que nous voulons examiner est spécifié à l'aide du paramètre 8220lag8221 dans la fonction Box. test (). Par exemple, pour tester s'il ya des autocorrélations non nulles aux intervalles de 1 à 20, pour les erreurs de prévision dans les échantillons pour les données de précipitations de Londres, nous tapons: Ici, la statistique de test de Ljung-Box est de 17,4 et la valeur de p est de 0,6 , De sorte qu'il existe peu de signes d'auto-corrélations non nulles dans les erreurs de prévision dans les échantillons aux intervalles 1-20. Pour être sûr que le modèle prédictif ne peut pas être amélioré, il est également une bonne idée de vérifier si les erreurs de prévision sont normalement distribuées avec moyenne zéro et constante variance. Pour vérifier si les erreurs de prévision ont une variance constante, nous pouvons faire un graphique temporel des erreurs de prévision dans l'échantillon: Le graphique montre que les erreurs de prévision dans l'échantillon semblent avoir une variance à peu près constante dans le temps, bien que la taille des fluctuations Le début de la série chronologique (1820-1830) peut être légèrement inférieur à celui des dates ultérieures (par exemple 1840-1850). Pour vérifier si les erreurs de prévision sont normalement distribuées avec un zéro moyen, nous pouvons tracer un histogramme des erreurs de prévision, avec une courbe normale superposée qui a la moyenne de zéro et le même écart type que la distribution des erreurs de prévision. Pour ce faire, nous pouvons définir une fonction R 8220plotForecastErrors () 8221, ci-dessous: Vous devrez copier la fonction ci-dessus dans R pour l'utiliser. Vous pouvez ensuite utiliser plotForecastErrors () pour tracer un histogramme (avec une courbe normale superposée) des erreurs de prévision pour les prévisions de précipitations: Le graphique montre que la répartition des erreurs de prévision est approximativement centrée sur zéro et est plus ou moins normalement distribuée Il semble être légèrement biaisé à droite par rapport à une courbe normale. Cependant, l'asymétrie droite est relativement faible et il est donc plausible que les erreurs de prévision soient normalement distribuées avec un zéro moyen. Le test de Ljung-Box a montré qu'il y a peu de signes d'auto-corrélations non nulles dans les erreurs de prévision dans l'échantillon, et la distribution des erreurs de prévision semble être normalement distribuée avec un zéro moyen. Cela suggère que la méthode de lissage exponentiel simple fournit un modèle prédictif adéquat pour les précipitations de Londres, qui ne peut probablement pas être améliorée. En outre, les hypothèses selon lesquelles les intervalles de prédiction des 80 et 95 étaient fondés sur (qu'il n'y a pas d'autocorrélation dans les erreurs de prévision et les erreurs de prévision sont normalement distribuées avec une moyenne nulle et une variance constante) sont probablement valides. Holt8217s Lissage exponentiel Si vous avez une série chronologique qui peut être décrite en utilisant un modèle additif avec une tendance croissante ou décroissante et aucune saisonnalité, vous pouvez utiliser le lissage exponentiel Holt8217s pour faire des prévisions à court terme. Le lissage exponentiel Holt8217s estime le niveau et la pente au point temporel actuel. Le lissage est contrôlé par deux paramètres, alpha, pour l'estimation du niveau au point de temps courant, et bêta pour l'estimation de la pente b de la composante de tendance au moment courant. Comme pour le lissage exponentiel simple, les paramètres alpha et bêta ont des valeurs comprises entre 0 et 1, et des valeurs proches de 0 signifient que peu de poids est placé sur les observations les plus récentes lors de la prévision de valeurs futures. Un exemple d'une série temporelle qui peut probablement être décrite à l'aide d'un modèle additif avec une tendance et pas de saisonnalité est la série chronologique du diamètre annuel des jupes de femmes à l'ourlet, de 1866 à 1911. Les données sont disponibles dans le fichier robjhyndmantsdldatarobertsskirts. Dat (données originales d'Hipel et McLeod, 1994). Nous pouvons lire et tracer les données en R en tapant: Nous pouvons voir à partir de l'intrigue qu'il y avait une augmentation du diamètre de l'ourlet d'environ 600 en 1866 à environ 1050 en 1880, et qu'ensuite le diamètre de l'ourlet a diminué à environ 520 en 1911 Pour utiliser HoltWinters () pour le lissage exponentiel de Holt8217s, nous avons besoin de définir le paramètre gammaFALSE (le paramètre gamma est utilisé pour le lissage exponentiel de Holt-Winters, comme décrit ci). Par exemple, pour utiliser le lissage exponentiel Holt8217s pour ajuster un modèle prédictif pour le diamètre du bord de jupe, on tape: La valeur estimée de alpha est de 0,84 et de beta de 1,00. Elles sont toutes deux élevées, ce qui nous indique que l'estimation de la valeur actuelle du niveau et de la pente b de la composante de la tendance repose essentiellement sur des observations très récentes dans la série chronologique. Cela fait un bon sens intuitif, puisque le niveau et la pente de la série chronologique changent beaucoup au fil du temps. La valeur de la somme des carré-erreurs pour les erreurs de prévision dans l'échantillon est 16954. Nous pouvons tracer la série chronologique originale comme une ligne noire, avec les valeurs prévues comme une ligne rouge en plus de cela, en tapant: Nous Peuvent voir à partir de l'image que les prévisions dans l'échantillon concordent assez bien avec les valeurs observées, bien qu'elles aient tendance à être en retard par rapport aux valeurs observées un peu. Si vous le souhaitez, vous pouvez spécifier les valeurs initiales du niveau et la pente b du composant de tendance en utilisant les arguments 8220l. start8221 et 8220b. start8221 pour la fonction HoltWinters (). Il est courant de régler la valeur initiale du niveau sur la première valeur de la série chronologique (608 pour les données sur les jupes) et la valeur initiale de la pente sur la deuxième valeur moins la première valeur (9 pour les données sur les jupes). Par exemple, pour adapter un modèle prédictif aux données d'ourlet de jupe à l'aide du lissage exponentiel Holt8217s, avec des valeurs initiales de 608 pour le niveau et de 9 pour la pente b de la composante de tendance, nous tapons: Comme pour le lissage exponentiel simple, Pour les temps futurs non couverts par la série chronologique initiale en utilisant la fonction forecast. HoltWinters () dans le package 8220forecast8221. Par exemple, nos données chronologiques pour les ourlets de jupe étaient de 1866 à 1911, donc nous pouvons faire des prédictions pour 1912 à 1930 (19 points de données supplémentaires) et les tracer en tapant: Les prévisions sont représentées par une ligne bleue 80 intervalles de prédiction comme une zone grisée orange, et les 95 intervalles de prédiction comme une zone jaune ombragée. Comme pour le lissage exponentiel simple, nous pouvons vérifier si le modèle prédictif pourrait être amélioré en vérifiant si les erreurs de prévision dans l'échantillon montrent des autocorrélations non nulles aux décalages 1-20. Par exemple, pour les données d'ourlet de jupe, on peut établir un corrélogramme et effectuer le test de Ljung-Box en tapant: Ici, le corrélogramme montre que l'autocorrélation de l'échantillon pour les erreurs de prévision dans l'échantillon au retard 5 dépasse les limites de signification. Cependant, on peut s'attendre à ce qu'une sur 20 des autocorrélations pour les vingt premiers décalages dépasse les 95 limites de signification par hasard seul. En effet, lorsque nous effectuons le test de Ljung-Box, la valeur de p est de 0,47, ce qui indique qu'il existe peu de signes d'autocorrélations non nulles dans les erreurs de prévision dans les échantillons aux intervalles de 1 à 20. Comme pour le lissage exponentiel simple, nous devons également vérifier que les erreurs de prévision ont une variance constante dans le temps et sont normalement distribuées avec un zéro moyen. Nous pouvons le faire en faisant un graphique temporel des erreurs de prévision et un histogramme de la répartition des erreurs de prévision avec une courbe normale superposée: Le graphique temporel des erreurs de prévision montre que les erreurs de prévision ont une variance à peu près constante dans le temps. L'histogramme des erreurs de prévision montre qu'il est plausible que les erreurs de prévision soient normalement distribuées avec une moyenne de zéro et une variance constante. Ainsi, le test de Ljung-Box montre qu'il existe peu d'indications d'autocorrélations dans les erreurs de prévision, tandis que le tracé temporel et l'histogramme des erreurs de prévision montrent qu'il est plausible que les erreurs de prévision soient normalement distribuées avec moyenne nulle et constante. Par conséquent, nous pouvons conclure que le lissage exponentiel Holt8217s fournit un modèle prédictif adéquat pour les diamètres de jupe ourlet, qui ne peut probablement pas être améliorée. De plus, cela signifie que les hypothèses selon lesquelles les intervalles de prédiction des 80 et 95 étaient basés sont probablement valides. Holt-Winters Lissage exponentiel Si vous avez une série chronologique qui peut être décrite à l'aide d'un modèle additif avec tendance croissante ou décroissante et saisonnalité, vous pouvez utiliser le lissage exponentiel Holt-Winters pour faire des prévisions à court terme. Le lissage exponentiel de Holt-Winters estime le niveau, la pente et la composante saisonnière au point temporel actuel. Le lissage est contrôlé par trois paramètres: alpha, bêta et gamma, pour les estimations du niveau, de la pente b de la composante de la tendance et de la composante saisonnière, respectivement, au point de temps courant. The parameters alpha, beta and gamma all have values between 0 and 1, and values that are close to 0 mean that relatively little weight is placed on the most recent observations when making forecasts of future values. An example of a time series that can probably be described using an additive model with a trend and seasonality is the time series of the log of monthly sales for the souvenir shop at a beach resort town in Queensland, Australia (discussed above): To make forecasts, we can fit a predictive model using the HoltWinters() function. For example, to fit a predictive model for the log of the monthly sales in the souvenir shop, we type: The estimated values of alpha, beta and gamma are 0.41, 0.00, and 0.96, respectively. The value of alpha (0.41) is relatively low, indicating that the estimate of the level at the current time point is based upon both recent observations and some observations in the more distant past. The value of beta is 0.00, indicating that the estimate of the slope b of the trend component is not updated over the time series, and instead is set equal to its initial value. This makes good intuitive sense, as the level changes quite a bit over the time series, but the slope b of the trend component remains roughly the same. In contrast, the value of gamma (0.96) is high, indicating that the estimate of the seasonal component at the current time point is just based upon very recent observations. As for simple exponential smoothing and Holt8217s exponential smoothing, we can plot the original time series as a black line, with the forecasted values as a red line on top of that: We see from the plot that the Holt-Winters exponential method is very successful in predicting the seasonal peaks, which occur roughly in November every year. To make forecasts for future times not included in the original time series, we use the 8220forecast. HoltWinters()8221 function in the 8220forecast8221 package. For example, the original data for the souvenir sales is from January 1987 to December 1993. If we wanted to make forecasts for January 1994 to December 1998 (48 more months), and plot the forecasts, we would type: The forecasts are shown as a blue line, and the orange and yellow shaded areas show 80 and 95 prediction intervals, respectively. We can investigate whether the predictive model can be improved upon by checking whether the in-sample forecast errors show non-zero autocorrelations at lags 1-20, by making a correlogram and carrying out the Ljung-Box test: The correlogram shows that the autocorrelations for the in-sample forecast errors do not exceed the significance bounds for lags 1-20. Furthermore, the p-value for Ljung-Box test is 0.6, indicating that there is little evidence of non-zero autocorrelations at lags 1-20. We can check whether the forecast errors have constant variance over time, and are normally distributed with mean zero, by making a time plot of the forecast errors and a histogram (with overlaid normal curve): From the time plot, it appears plausible that the forecast errors have constant variance over time. From the histogram of forecast errors, it seems plausible that the forecast errors are normally distributed with mean zero. Thus, there is little evidence of autocorrelation at lags 1-20 for the forecast errors, and the forecast errors appear to be normally distributed with mean zero and constant variance over time. This suggests that Holt-Winters exponential smoothing provides an adequate predictive model of the log of sales at the souvenir shop, which probably cannot be improved upon. Furthermore, the assumptions upon which the prediction intervals were based are probably valid. ARIMA Models Exponential smoothing methods are useful for making forecasts, and make no assumptions about the correlations between successive values of the time series. However, if you want to make prediction intervals for forecasts made using exponential smoothing methods, the prediction intervals require that the forecast errors are uncorrelated and are normally distributed with mean zero and constant variance. While exponential smoothing methods do not make any assumptions about correlations between successive values of the time series, in some cases you can make a better predictive model by taking correlations in the data into account. Autoregressive Integrated Moving Average (ARIMA) models include an explicit statistical model for the irregular component of a time series, that allows for non-zero autocorrelations in the irregular component. Differencing a Time Series ARIMA models are defined for stationary time series. Therefore, if you start off with a non-stationary time series, you will first need to 8216difference8217 the time series until you obtain a stationary time series. If you have to difference the time series d times to obtain a stationary series, then you have an ARIMA(p, d,q) model, where d is the order of differencing used. You can difference a time series using the 8220diff()8221 function in R. For example, the time series of the annual diameter of women8217s skirts at the hem, from 1866 to 1911 is not stationary in mean, as the level changes a lot over time: We can difference the time series (which we stored in 8220skirtsseries8221, see above) once, and plot the differenced series, by typing: The resulting time series of first differences (above) does not appear to be stationary in mean. Therefore, we can difference the time series twice, to see if that gives us a stationary time series: Formal tests for stationarity Formal tests for stationarity called 8220unit root tests8221 are available in the fUnitRoots package, available on CRAN, but will not be discussed here. The time series of second differences (above) does appear to be stationary in mean and variance, as the level of the series stays roughly constant over time, and the variance of the series appears roughly constant over time. Thus, it appears that we need to difference the time series of the diameter of skirts twice in order to achieve a stationary series. If you need to difference your original time series data d times in order to obtain a stationary time series, this means that you can use an ARIMA(p, d,q) model for your time series, where d is the order of differencing used. For example, for the time series of the diameter of women8217s skirts, we had to difference the time series twice, and so the order of differencing (d) is 2. This means that you can use an ARIMA(p,2,q) model for your time series. The next step is to figure out the values of p and q for the ARIMA model. Another example is the time series of the age of death of the successive kings of England (see above): From the time plot (above), we can see that the time series is not stationary in mean. To calculate the time series of first differences, and plot it, we type: The time series of first differences appears to be stationary in mean and variance, and so an ARIMA(p,1,q) model is probably appropriate for the time series of the age of death of the kings of England. By taking the time series of first differences, we have removed the trend component of the time series of the ages at death of the kings, and are left with an irregular component. We can now examine whether there are correlations between successive terms of this irregular component if so, this could help us to make a predictive model for the ages at death of the kings. Selecting a Candidate ARIMA Model If your time series is stationary, or if you have transformed it to a stationary time series by differencing d times, the next step is to select the appropriate ARIMA model, which means finding the values of most appropriate values of p and q for an ARIMA(p, d,q) model. To do this, you usually need to examine the correlogram and partial correlogram of the stationary time series. To plot a correlogram and partial correlogram, we can use the 8220acf()8221 and 8220pacf()8221 functions in R, respectively. To get the actual values of the autocorrelations and partial autocorrelations, we set 8220plotFALSE8221 in the 8220acf()8221 and 8220pacf()8221 functions. Example of the Ages at Death of the Kings of England For example, to plot the correlogram for lags 1-20 of the once differenced time series of the ages at death of the kings of England, and to get the values of the autocorrelations, we type: We see from the correlogram that the autocorrelation at lag 1 (-0.360) exceeds the significance bounds, but all other autocorrelations between lags 1-20 do not exceed the significance bounds. To plot the partial correlogram for lags 1-20 for the once differenced time series of the ages at death of the English kings, and get the values of the partial autocorrelations, we use the 8220pacf()8221 function, by typing: The partial correlogram shows that the partial autocorrelations at lags 1, 2 and 3 exceed the significance bounds, are negative, and are slowly decreasing in magnitude with increasing lag (lag 1: -0.360, lag 2: -0.335, lag 3:-0.321). The partial autocorrelations tail off to zero after lag 3. Since the correlogram is zero after lag 1, and the partial correlogram tails off to zero after lag 3, this means that the following ARMA (autoregressive moving average) models are possible for the time series of first differences: an ARMA(3,0) model, that is, an autoregressive model of order p3, since the partial autocorrelogram is zero after lag 3, and the autocorrelogram tails off to zero (although perhaps too abruptly for this model to be appropriate) an ARMA(0,1) model, that is, a moving average model of order q1, since the autocorrelogram is zero after lag 1 and the partial autocorrelogram tails off to zero an ARMA(p, q) model, that is, a mixed model with p and q greater than 0, since the autocorrelogram and partial correlogram tail off to zero (although the correlogram probably tails off to zero too abruptly for this model to be appropriate) We use the principle of parsimony to decide which model is best: that is, we assume that the model with the fewest parameters is best. The ARMA(3,0) model has 3 parameters, the ARMA(0,1) model has 1 parameter, and the ARMA(p, q) model has at least 2 parameters. Therefore, the ARMA(0,1) model is taken as the best model. An ARMA(0,1) model is a moving average model of order 1, or MA(1) model. This model can be written as: Xt - mu Zt - (theta Zt-1), where Xt is the stationary time series we are studying (the first differenced series of ages at death of English kings), mu is the mean of time series Xt, Zt is white noise with mean zero and constant variance, and theta is a parameter that can be estimated. A MA (moving average) model is usually used to model a time series that shows short-term dependencies between successive observations. Intuitively, it makes good sense that a MA model can be used to describe the irregular component in the time series of ages at death of English kings, as we might expect the age at death of a particular English king to have some effect on the ages at death of the next king or two, but not much effect on the ages at death of kings that reign much longer after that. Shortcut: the auto. arima() function The auto. arima() function can be used to find the appropriate ARIMA model, eg. type 8220library(forecast)8221, then 8220auto. arima(kings)8221. The output says an appropriate model is ARIMA(0,1,1). Since an ARMA(0,1) model (with p0, q1) is taken to be the best candidate model for the time series of first differences of the ages at death of English kings, then the original time series of the ages of death can be modelled using an ARIMA(0,1,1) model (with p0, d1, q1, where d is the order of differencing required). Example of the Volcanic Dust Veil in the Northern Hemisphere Let8217s take another example of selecting an appropriate ARIMA model. The file file robjhyndmantsdldataannualdvi. dat contains data on the volcanic dust veil index in the northern hemisphere, from 1500-1969 (original data from Hipel and Mcleod, 1994). This is a measure of the impact of volcanic eruptions8217 release of dust and aerosols into the environment. We can read it into R and make a time plot by typing: From the time plot, it appears that the random fluctuations in the time series are roughly constant in size over time, so an additive model is probably appropriate for describing this time series. Furthermore, the time series appears to be stationary in mean and variance, as its level and variance appear to be roughly constant over time. Therefore, we do not need to difference this series in order to fit an ARIMA model, but can fit an ARIMA model to the original series (the order of differencing required, d, is zero here). We can now plot a correlogram and partial correlogram for lags 1-20 to investigate what ARIMA model to use: We see from the correlogram that the autocorrelations for lags 1, 2 and 3 exceed the significance bounds, and that the autocorrelations tail off to zero after lag 3. The autocorrelations for lags 1, 2, 3 are positive, and decrease in magnitude with increasing lag (lag 1: 0.666, lag 2: 0.374, lag 3: 0.162). The autocorrelation for lags 19 and 20 exceed the significance bounds too, but it is likely that this is due to chance, since they just exceed the significance bounds (especially for lag 19), the autocorrelations for lags 4-18 do not exceed the signifiance bounds, and we would expect 1 in 20 lags to exceed the 95 significance bounds by chance alone. From the partial autocorrelogram, we see that the partial autocorrelation at lag 1 is positive and exceeds the significance bounds (0.666), while the partial autocorrelation at lag 2 is negative and also exceeds the significance bounds (-0.126). The partial autocorrelations tail off to zero after lag 2. Since the correlogram tails off to zero after lag 3, and the partial correlogram is zero after lag 2, the following ARMA models are possible for the time series: an ARMA(2,0) model, since the partial autocorrelogram is zero after lag 2, and the correlogram tails off to zero after lag 3, and the partial correlogram is zero after lag 2 an ARMA(0,3) model, since the autocorrelogram is zero after lag 3, and the partial correlogram tails off to zero (although perhaps too abruptly for this model to be appropriate) an ARMA(p, q) mixed model, since the correlogram and partial correlogram tail off to zero (although the partial correlogram perhaps tails off too abruptly for this model to be appropriate) Shortcut: the auto. arima() function Again, we can use auto. arima() to find an appropriate model, by typing 8220auto. arima(volcanodust)8221, which gives us ARIMA(1,0,2), which has 3 parameters. However, different criteria can be used to select a model (see auto. arima() help page). If we use the 8220bic8221 criterion, which penalises the number of parameters, we get ARIMA(2,0,0), which is ARMA(2,0): 8220auto. arima(volcanodust, ic8221bic8221)8221. The ARMA(2,0) model has 2 parameters, the ARMA(0,3) model has 3 parameters, and the ARMA(p, q) model has at least 2 parameters. Therefore, using the principle of parsimony, the ARMA(2,0) model and ARMA(p, q) model are equally good candidate models. An ARMA(2,0) model is an autoregressive model of order 2, or AR(2) model. This model can be written as: Xt - mu (Beta1 (Xt-1 - mu)) (Beta2 (Xt-2 - mu)) Zt, where Xt is the stationary time series we are studying (the time series of volcanic dust veil index), mu is the mean of time series Xt, Beta1 and Beta2 are parameters to be estimated, and Zt is white noise with mean zero and constant variance. An AR (autoregressive) model is usually used to model a time series which shows longer term dependencies between successive observations. Intuitively, it makes sense that an AR model could be used to describe the time series of volcanic dust veil index, as we would expect volcanic dust and aerosol levels in one year to affect those in much later years, since the dust and aerosols are unlikely to disappear quickly. If an ARMA(2,0) model (with p2, q0) is used to model the time series of volcanic dust veil index, it would mean that an ARIMA(2,0,0) model can be used (with p2, d0, q0, where d is the order of differencing required). Similarly, if an ARMA(p, q) mixed model is used, where p and q are both greater than zero, than an ARIMA(p,0,q) model can be used. Forecasting Using an ARIMA Model Once you have selected the best candidate ARIMA(p, d,q) model for your time series data, you can estimate the parameters of that ARIMA model, and use that as a predictive model for making forecasts for future values of your time series. You can estimate the parameters of an ARIMA(p, d,q) model using the 8220arima()8221 function in R. Example of the Ages at Death of the Kings of England For example, we discussed above that an ARIMA(0,1,1) model seems a plausible model for the ages at deaths of the kings of England. You can specify the values of p, d and q in the ARIMA model by using the 8220order8221 argument of the 8220arima()8221 function in R. To fit an ARIMA(p, d,q) model to this time series (which we stored in the variable 8220kingstimeseries8221, see above), we type: As mentioned above, if we are fitting an ARIMA(0,1,1) model to our time series, it means we are fitting an an ARMA(0,1) model to the time series of first differences. An ARMA(0,1) model can be written Xt - mu Zt - (theta Zt-1), where theta is a parameter to be estimated. From the output of the 8220arima()8221 R function (above), the estimated value of theta (given as 8216ma18217 in the R output) is -0.7218 in the case of the ARIMA(0,1,1) model fitted to the time series of ages at death of kings. Specifying the confidence level for prediction intervals You can specify the confidence level for prediction intervals in forecast. Arima() by using the 8220level8221 argument. For example, to get a 99.5 prediction interval, we would type 8220forecast. Arima(kingstimeseriesarima, h5, levelc(99.5))8221. We can then use the ARIMA model to make forecasts for future values of the time series, using the 8220forecast. Arima()8221 function in the 8220forecast8221 R package. For example, to forecast the ages at death of the next five English kings, we type: The original time series for the English kings includes the ages at death of 42 English kings. The forecast. Arima() function gives us a forecast of the age of death of the next five English kings (kings 43-47), as well as 80 and 95 prediction intervals for those predictions. The age of death of the 42nd English king was 56 years (the last observed value in our time series), and the ARIMA model gives the forecasted age at death of the next five kings as 67.8 years. We can plot the observed ages of death for the first 42 kings, as well as the ages that would be predicted for these 42 kings and for the next 5 kings using our ARIMA(0,1,1) model, by typing: As in the case of exponential smoothing models, it is a good idea to investigate whether the forecast errors of an ARIMA model are normally distributed with mean zero and constant variance, and whether the are correlations between successive forecast errors. For example, we can make a correlogram of the forecast errors for our ARIMA(0,1,1) model for the ages at death of kings, and perform the Ljung-Box test for lags 1-20, by typing: Since the correlogram shows that none of the sample autocorrelations for lags 1-20 exceed the significance bounds, and the p-value for the Ljung-Box test is 0.9, we can conclude that there is very little evidence for non-zero autocorrelations in the forecast errors at lags 1-20. To investigate whether the forecast errors are normally distributed with mean zero and constant variance, we can make a time plot and histogram (with overlaid normal curve) of the forecast errors: The time plot of the in-sample forecast errors shows that the variance of the forecast errors seems to be roughly constant over time (though perhaps there is slightly higher variance for the second half of the time series). The histogram of the time series shows that the forecast errors are roughly normally distributed and the mean seems to be close to zero. Therefore, it is plausible that the forecast errors are normally distributed with mean zero and constant variance. Since successive forecast errors do not seem to be correlated, and the forecast errors seem to be normally distributed with mean zero and constant variance, the ARIMA(0,1,1) does seem to provide an adequate predictive model for the ages at death of English kings. Example of the Volcanic Dust Veil in the Northern Hemisphere We discussed above that an appropriate ARIMA model for the time series of volcanic dust veil index may be an ARIMA(2,0,0) model. To fit an ARIMA(2,0,0) model to this time series, we can type: As mentioned above, an ARIMA(2,0,0) model can be written as: written as: Xt - mu (Beta1 (Xt-1 - mu)) (Beta2 (Xt-2 - mu)) Zt, where Beta1 and Beta2 are parameters to be estimated. The output of the arima() function tells us that Beta1 and Beta2 are estimated as 0.7533 and -0.1268 here (given as ar1 and ar2 in the output of arima()). Now we have fitted the ARIMA(2,0,0) model, we can use the 8220forecast. ARIMA()8221 model to predict future values of the volcanic dust veil index. The original data includes the years 1500-1969. To make predictions for the years 1970-2000 (31 more years), we type: We can plot the original time series, and the forecasted values, by typing: One worrying thing is that the model has predicted negative values for the volcanic dust veil index, but this variable can only have positive values The reason is that the arima() and forecast. Arima() functions don8217t know that the variable can only take positive values. Clearly, this is not a very desirable feature of our current predictive model. Again, we should investigate whether the forecast errors seem to be correlated, and whether they are normally distributed with mean zero and constant variance. To check for correlations between successive forecast errors, we can make a correlogram and use the Ljung-Box test: The correlogram shows that the sample autocorrelation at lag 20 exceeds the significance bounds. However, this is probably due to chance, since we would expect one out of 20 sample autocorrelations to exceed the 95 significance bounds. Furthermore, the p-value for the Ljung-Box test is 0.2, indicating that there is little evidence for non-zero autocorrelations in the forecast errors for lags 1-20. To check whether the forecast errors are normally distributed with mean zero and constant variance, we make a time plot of the forecast errors, and a histogram: The time plot of forecast errors shows that the forecast errors seem to have roughly constant variance over time. However, the time series of forecast errors seems to have a negative mean, rather than a zero mean. We can confirm this by calculating the mean forecast error, which turns out to be about -0.22: The histogram of forecast errors (above) shows that although the mean value of the forecast errors is negative, the distribution of forecast errors is skewed to the right compared to a normal curve. Therefore, it seems that we cannot comfortably conclude that the forecast errors are normally distributed with mean zero and constant variance Thus, it is likely that our ARIMA(2,0,0) model for the time series of volcanic dust veil index is not the best model that we could make, and could almost definitely be improved upon Links and Further Reading Here are some links for further reading. For a more in-depth introduction to R, a good online tutorial is available on the 8220Kickstarting R8221 website, cran. r-project. orgdoccontribLemon-kickstart . There is another nice (slightly more in-depth) tutorial to R available on the 8220Introduction to R8221 website, cran. r-project. orgdocmanualsR-intro. html . You can find a list of R packages for analysing time series data on the CRAN Time Series Task View webpage . To learn about time series analysis, I would highly recommend the book 8220Time series8221 (product code M24902) by the Open University, available from the Open University Shop . There are two books available in the 8220Use R8221 series on using R for time series analyses, the first is Introductory Time Series with R by Cowpertwait and Metcalfe, and the second is Analysis of Integrated and Cointegrated Time Series with R by Pfaff. Acknowledgements I am grateful to Professor Rob Hyndman. for kindly allowing me to use the time series data sets from his Time Series Data Library (TSDL) in the examples in this booklet. Many of the examples in this booklet are inspired by examples in the excellent Open University book, 8220Time series8221 (product code M24902), available from the Open University Shop . Thank you to Ravi Aranke for bringing auto. arima() to my attention, and Maurice Omane-Adjepong for bringing unit root tests to my attention, and Christian Seubert for noticing a small bug in plotForecastErrors(). Thank you for other comments to Antoine Binard and Bill Johnston. I will be grateful if you will send me (Avril Coghlan) corrections or suggestions for improvements to my email address alc 64 sanger 46 ac 46 uk


No comments:

Post a Comment