Friday, February 17, 2017

Moyenne Mobile Pacf

Moyenne mobile Cet exemple vous enseigne comment calculer la moyenne mobile d'une série temporelle dans Excel. Une moyenne mobile est utilisée pour lisser les irrégularités (pics et vallées) pour reconnaître facilement les tendances. 1. Tout d'abord, jetez un oeil à notre série chronologique. 2. Sous l'onglet Données, cliquez sur Analyse des données. Remarque: ne trouve pas le bouton Analyse des données Cliquez ici pour charger le complément Analysis ToolPak. 3. Sélectionnez Moyenne mobile et cliquez sur OK. 4. Cliquez dans la zone Plage d'entrée et sélectionnez la plage B2: M2. 5. Cliquez dans la zone Intervalle et tapez 6. 6. Cliquez dans la zone Plage de sortie et sélectionnez la cellule B3. 8. Tracez un graphique de ces valeurs. Explication: parce que nous définissons l'intervalle sur 6, la moyenne mobile est la moyenne des 5 points de données précédents et le point de données actuel. En conséquence, les crêtes et les vallées sont lissées. Le graphique montre une tendance à la hausse. Excel ne peut pas calculer la moyenne mobile pour les 5 premiers points de données car il n'y a pas assez de points de données antérieurs. 9. Répétez les étapes 2 à 8 pour l'intervalle 2 et l'intervalle 4. Conclusion: Plus l'intervalle est grand, plus les sommets et les vallées sont lissés. Moins d'intervalle, plus les moyennes mobiles sont rapprochées des points de données réels. Moyenne de déplacement - MA BREAKING DOWN Moyenne mobile - MA En tant qu'exemple de SMA, considérez un titre avec les cours de clôture suivants sur 15 jours: Semaine 1 (5 jours) 20, 22, 24, 25, 23 Semaine 2 (5 jours) 26, 28, 26, 29, 27 Semaine 3 (5 jours) 28, 30, 27, 29, 28 Une MA de 10 jours serait la moyenne des cours de clôture Pour les 10 premiers jours comme premier point de données. Le prochain point de données laisserait tomber le premier prix, ajoute le prix au jour 11 et prend la moyenne, et ainsi de suite comme montré ci-dessous. Comme on l'a noté plus haut, les AM retardent l'action actuelle du prix parce qu'elles sont basées sur des prix passés, plus la période de l'AM est longue, plus le décalage est important. Ainsi, un MA de 200 jours aura un décalage beaucoup plus grand que d'une MA de 20 jours, car il contient des prix pour les 200 derniers jours. La durée de la MA à utiliser dépend des objectifs de négociation, avec plus courte MA utilisés pour les transactions à court terme et à plus long terme MA plus adaptés pour les investisseurs à long terme. La MA de 200 jours est largement suivie par les investisseurs et les commerçants, avec des ruptures au-dessus et en dessous de cette moyenne mobile considérés comme des signaux commerciaux importants. Les MA confèrent également des signaux commerciaux importants seuls, ou lorsque deux moyennes se croisent. Une augmentation MA indique que la sécurité est dans une tendance haussière. Tandis qu'un MA en déclin indique qu'il est dans une tendance baissière. De même, la dynamique ascendante est confirmée par un croisement haussier. Qui se produit quand un MA à court terme traverse au-dessus d'un MA à plus long terme. Le momentum descendant est confirmé par un croisement baissier, qui se produit lorsqu'une MA à court terme traverse une MA à plus long terme. Identifier le nombre de termes AR ou MA dans un ARIMA modèle ACF et PACF: Après qu'une série temporelle a été stationnaire par La prochaine étape dans l'ajustement d'un modèle ARIMA est de déterminer si les termes AR ou MA sont nécessaires pour corriger toute autocorrélation qui reste dans la série différenciée. Bien sûr, avec des logiciels comme Statgraphics, vous pouvez simplement essayer différentes combinaisons de termes et voir ce qui fonctionne le mieux. Mais il existe un moyen plus systématique de le faire. En examinant les diagrammes de la fonction d'autocorrélation (ACF) et de l'autocorrélation partielle (PACF) des séries différenciées, vous pouvez tenter d'identifier le nombre de termes AR et / ou MA qui sont nécessaires. Vous êtes déjà familiarisé avec la trame ACF: il s'agit simplement d'un diagramme à barres des coefficients de corrélation entre une série chronologique et des décalages de lui-même. Le tracé PACF est une courbe des coefficients de corrélation partielle entre les séries et les décalages de lui-même. En général, la corrélation quotpartiale entre deux variables est la quantité de corrélation entre elles qui n'est pas expliquée par leurs corrélations mutuelles avec un ensemble spécifié d'autres variables. Par exemple, si l'on fait régresser une variable Y sur d'autres variables X1, X2 et X3, la corrélation partielle entre Y et X3 est la quantité de corrélation entre Y et X3 qui n'est pas expliquée par leurs corrélations communes avec X1 et X2. Cette corrélation partielle peut être calculée comme la racine carrée de la réduction de variance obtenue en ajoutant X3 à la régression de Y sur X1 et X2. Une auto-corrélation partielle est la quantité de corrélation entre une variable et un retard de lui-même qui n'est pas expliqué par des corrélations à tous les bas-ordre-lags. L'autocorrélation d'une série temporelle Y au retard 1 est le coefficient de corrélation entre Y t et Y t-1. Qui est vraisemblablement aussi la corrélation entre Y t -1 et Y t -2. Mais si Y t est corrélée avec Y t -1. Et Y t -1 est également corrélé avec Y t -2. Alors nous devrions aussi nous attendre à trouver une corrélation entre Y t et Y t-2. En fait, la quantité de corrélation que nous devrions nous attendre au lag 2 est précisément le carré de la corrélation lag-1. Ainsi, la corrélation au décalage 1 est quoti - dienne du retard 2 et, vraisemblablement, du retard supérieur. L'autocorrélation partielle au retard 2 est donc la différence entre la corrélation réelle au décalage 2 et la corrélation attendue due à la propagation de la corrélation au décalage 1. Voici la fonction d'autocorrélation (ACF) de la série UNITS avant toute différenciation: Les autocorrélations sont significatives pour un grand nombre de décalages - mais peut-être que les autocorrélations au retard 2 et au-dessus sont simplement dues à la propagation de l'autocorrélation au décalage 1. Ceci est confirmé par le tracé PACF: Spike seulement au lag 1, ce qui signifie que toutes les autocorrélations d'ordre supérieur sont effectivement expliqués par l'autocorrélation lag-1. Les autocorrélations partielles à tous les décalages peuvent être calculées en ajustant une succession de modèles autorégressifs avec un nombre croissant de décalages. En particulier, l'autocorrélation partielle au décalage k est égale au coefficient AR (k) estimé dans un modèle autorégressif avec k termes - c'est-à-dire. Un modèle de régression multiple dans lequel Y est régressé sur GAL (Y, 1), GAL (Y, 2), etc. jusqu'à GAL (Y, k). Ainsi, par simple inspection du PACF, vous pouvez déterminer le nombre de termes AR que vous devez utiliser pour expliquer le modèle d'autocorrélation dans une série temporelle: si l'autocorrélation partielle est significative au décalage k et non significative à tout retard d'ordre supérieur, c'est-à-dire. Si le PACF quotcuts offquot au décalage k - alors cela suggère que vous devriez essayer d'adapter un modèle autorégressif d'ordre k Le PACF de la série UNITS fournit un exemple extrême du phénomène de coupure: il a un très grand pic au retard de 1 Et aucun autre pic significatif, indiquant qu'en l'absence de différenciation, un modèle AR (1) devrait être utilisé. Cependant, le terme AR (1) dans ce modèle s'avérera équivalent à une première différence, car le coefficient AR (1) estimé (qui est la hauteur du pic PACF au décalage 1) sera presque exactement égal à 1 L'équation de prévision pour un modèle AR (1) pour une série Y sans ordres de différenciation est: Si le coefficient d'AR (1) 981 1 dans cette équation est égal à 1, il équivaut à prédire que la première différence De Y est constante - ie Il équivaut à l'équation du modèle de marche aléatoire avec croissance: Le PACF de la série UNITS nous dit que, si nous ne la différence, alors nous devrions adapter un modèle AR (1) qui se révèlera être équivalent à la prise Une première différence. En d'autres termes, il nous dit que UNITS a vraiment besoin d'un ordre de différenciation pour être stationnaire. Signatures AR et MA: Si le PACF affiche une coupure brusque alors que l'ACF décroît plus lentement (c'est-à-dire a des pointes significatives à des décalages plus élevés), on dit que la série stationarisée affiche une signature quotAR, ce qui signifie que le motif d'autocorrélation peut être expliqué plus facilement En ajoutant des termes AR plutôt qu'en ajoutant des termes MA. Vous constaterez probablement qu'une signature AR est couramment associée à une autocorrélation positive au retard 1 - c'est-à-dire. Il tend à se poser en série qui sont légèrement sous-différenciées. La raison en est qu'un terme AR peut agir comme une différence quotpartiale dans l'équation de prévision. Par exemple, dans un modèle AR (1), le terme AR agit comme une première différence si le coefficient autorégressif est égal à 1, il ne fait rien si le coefficient autorégressif est nul et il agit comme une différence partielle si le coefficient est entre 0 et 1. Ainsi, si la série est légèrement sous-différenciée - ie Si le modèle non stationnaire d'autocorrélation positive n'a pas été complètement éliminé, il fera des quotas pour une différence partielle en affichant une signature AR. Par conséquent, nous avons la règle empirique suivante pour déterminer quand ajouter des termes AR: Règle 6: Si le PACF de la série différenciée affiche une coupure aiguë et / ou l'autocorrélation lag-1 est positive - ie. Si la série apparaît légèrement quotunderdifferencedquot - alors envisager d'ajouter un terme AR pour le modèle. Le décalage auquel le PACF coupe est le nombre indiqué de termes AR. En principe, tout modèle d'autocorrélation peut être supprimé d'une série stationnaire en ajoutant suffisamment de termes autorégressifs (décalages de la série stationnaire) à l'équation de prévision, et le PACF indique combien de tels termes sont vraisemblablement nécessaires. Cependant, ce n'est pas toujours la manière la plus simple d'expliquer un modèle donné d'autocorrélation: il est parfois plus efficace d'ajouter des termes MA (retards des erreurs de prévision). La fonction d'autocorrélation (ACF) joue le même rôle pour les termes MA que le PACF joue pour les termes AR - c'est-à-dire que l'ACF vous indique combien de termes MA sont susceptibles d'être nécessaires pour supprimer l'autocorrélation restante de la série différenciée. Si l'autocorrélation est significative au décalage k mais pas à des décalages plus élevés, c'est-à-dire. Si l'ACF quotcuts offquot à lag k - cela indique que k termes exactement k MA doit être utilisé dans l'équation de prévision. Dans ce dernier cas, nous disons que la série stationnaire présente une signature quotMA, ce qui signifie que le modèle d'autocorrélation peut être expliqué plus facilement en ajoutant des termes MA que par l'ajout de termes AR. Une signature MA est couramment associée à une autocorrélation négative au décalage 1 - c'est-à-dire. Il tend à se poser en série qui sont légèrement plus différenciés. La raison pour cela est qu'un terme MA peut quotparlement annuler un ordre de différenciation dans l'équation de prévision. Pour le voir, rappelez-vous qu'un modèle ARIMA (0,1,1) sans constante est équivalent à un modèle Simple Exponential Smoothing. L'équation de prévision pour ce modèle est celle où le coefficient MA (1) 952 1 correspond à la quantité 1 - 945 dans le modèle SES. Si 952 1 est égal à 1, ceci correspond à un modèle SES avec 945 0, qui est juste un modèle CONSTANT parce que la prévision n'est jamais mise à jour. Cela signifie que lorsque 952 1 est égal à 1, il est effectivement annuler l'opération de différenciation qui permet habituellement à la prévision SES de se ré-ancrer sur la dernière observation. D'autre part, si le coefficient de la moyenne mobile est égal à 0, ce modèle se réduit à un modèle de marche aléatoire - c'est-à-dire. Il laisse l'opération de différenciation seule. Donc, si 952 1 est quelque chose de plus grand que 0, c'est comme si nous annulions partiellement un ordre de différenciation. Si la série est déjà légèrement sur-différenciée - c'est-à-dire. Si l'autocorrélation négative a été introduite - alors il sera quotask pourquot une différence d'être partiellement annulée par l'affichage d'une signature MA. (Il y a beaucoup de bruits de bras ici.) Une explication plus rigoureuse de cet effet se trouve dans le document de la Structure mathématique des modèles ARIMA.) D'où la règle additionnelle suivante: Règle 7: Si l'ACF de la série différenciée affiche un La coupure aiguë et / ou l'autocorrélation de lag-1 est négative. Si la série apparaît légèrement quotoverdifferencedquot - alors envisager d'ajouter un terme MA pour le modèle. Le décalage auquel l'ACF coupe le nombre indiqué de termes MA. Un modèle pour la série UNITS - ARIMA (2,1,0): Nous avons précédemment déterminé que la série UNITS avait besoin (au moins) d'un ordre de différenciation non saisonnière pour être stationnaire. Après avoir pris une différence non saisonnière - c'est-à-dire. (A) la corrélation au décalage 1 est significative et positive, et (b) le PACF montre un quotcutoff plus net que L'ACF. En particulier, le PACF n'a que deux pointes significatives, alors que le FCA en compte quatre. Ainsi, selon la règle 7 ci-dessus, la série différenciée affiche une signature AR (2). Si l'on fixe ainsi l'ordre du terme AR à 2 - i. e. Un modèle ARIMA (2,1,0) - on obtient les parcelles ACF et PACF suivantes pour les résidus: L'autocorrélation aux décalages cruciaux - à savoir les retards 1 et 2 - a été éliminée et il n'y a pas de modèle discernable Dans des décalages d'ordre supérieur. Le schéma chronologique des résidus montre une tendance légèrement inquiétante à s'éloigner de la moyenne: Cependant, le rapport de synthèse d'analyse montre que le modèle fonctionne néanmoins assez bien au cours de la période de validation, les deux coefficients AR sont significativement différents de zéro et la norme L'écart des résidus a été réduit de 1,54371 à 1,4215 (près de 10) par l'addition des termes AR. De plus, il n'y a pas de signe de racine quotunit parce que la somme des coefficients AR (0.2522540.195572) n'est pas proche de 1. (Les racines unitaires sont discutées plus en détail ci-dessous). Dans l'ensemble, cela semble être un bon modèle . Les prévisions (non transformées) pour le modèle montrent une tendance linéaire à la hausse projetée dans le futur: La tendance des prévisions à long terme est due au fait que le modèle inclut une différence non saisonnière et un terme constant: ce modèle est fondamentalement une marche aléatoire avec Croissance plus fine par l'ajout de deux termes autorégressifs - c'est-à-dire Deux décalages de la série différenciée. La pente des prévisions à long terme (c'est-à-dire l'augmentation moyenne d'une période à l'autre) est égale au terme moyen dans le résumé du modèle (0,467566). L'équation de prévision est: où 956 est le terme constant dans le résumé du modèle (0.258178), 981 1 est le coefficient AR (1) (0.25224) et 981 2 le coefficient AR (2) (0.195572). Moyenne versus constante: En général, le terme quotmeanquot dans la sortie d'un modèle ARIMA se réfère à la moyenne des séries différenciées (c'est-à-dire la tendance moyenne si l'ordre de différenciation est égal à 1), tandis que le quotconstant est le terme constant qui apparaît Sur le côté droit de l'équation de prévision. Les termes moyens et constants sont liés par l'équation: CONSTANT MEAN (1 moins la somme des coefficients AR). Dans ce cas, nous avons 0.258178 0.467566 (1 - 0.25224 - 0.195572) Modèle alternatif pour la série UNITS - ARIMA (0,2,1): Rappelons que lorsque nous avons commencé à analyser la série UNITS, nous n'étions pas entièrement sûrs de la Ordre correct de différenciation à utiliser. Un ordre de différenciation non saisonnière a donné l'écart type le plus bas (et un modèle d'autocorrélation positive douce), tandis que deux ordres de différenciation non saisonnière ont donné un graphique de séries chronologiques plus stationnaires (mais avec une forte autocorrélation négative). Voici l'ACF et le PACF de la série avec deux différences non saisonnières: La seule pointe négative au décalage 1 dans l'ACF est une signature MA (1), conformément à la Règle 8 ci-dessus. Ainsi, si nous utilisions 2 différences non saisonnières, nous voudrions également inclure un terme MA (1), produisant un modèle ARIMA (0,2,1). Selon la règle 5, nous voudrions également supprimer le terme constant. On notera que l'écart-type de bruit blanc estimé (RMSE) est seulement très légèrement plus élevé pour ce modèle que le précédent (1,46301 ici par rapport à 1,45215 précédemment). L'équation de prévision pour ce modèle est: où theta-1 est le coefficient MA (1). Rappelons que ceci est semblable à un modèle Linear Exponential Smoothing, avec le coefficient MA (1) correspondant à la quantité 2 (1-alpha) dans le modèle LES. Le coefficient de MA (1) de 0,76 dans ce modèle suggère qu'un modèle de LES avec l'alpha dans le voisinage de 0,72 serait à peu près aussi bien. En fait, lorsqu'un modèle ERP est adapté aux mêmes données, la valeur optimale de l'alpha s'établit autour de 0,61, ce qui n'est pas trop loin. Voici un rapport de comparaison de modèles qui montre les résultats de l'ajustement du modèle ARIMA (2,1,0) avec constante, du modèle ARIMA (0,2,1) sans constante, et du modèle LES: Les trois modèles sont pratiquement identiques La période d'estimation, et le modèle ARIMA (2,1,0) avec constante apparaît légèrement meilleur que les deux autres dans la période de validation. Sur la seule base de ces résultats statistiques, il serait difficile de choisir parmi les trois modèles. Cependant, si nous traçons les prévisions à long terme du modèle ARIMA (0,2,1) sans constante (qui sont essentiellement les mêmes que celles du modèle LES), nous voyons une différence significative par rapport au modèle précédent: Les prévisions affichent une tendance à la hausse moins forte que celle du modèle précédent, car la tendance locale vers la fin de la série est légèrement inférieure à la tendance moyenne sur toute la série, mais les intervalles de confiance augmentent beaucoup plus rapidement. Le modèle avec deux ordres de différenciation suppose que la tendance dans la série est variable dans le temps, donc il considère l'avenir lointain pour être beaucoup plus incertain que le modèle avec un seul ordre de différenciation. Quel modèle choisir? Cela dépend des hypothèses que nous sommes à l'aise de faire en ce qui concerne la constance de la tendance dans les données. Le modèle avec un seul ordre de différenciation suppose une tendance moyenne constante - il s'agit essentiellement d'un modèle de randonnée aléatoire fin avec croissance - et il fait donc des projections de tendance relativement conservatrice. Il est également assez optimiste quant à l'exactitude avec laquelle il peut prévoir plus d'une période à venir. Le modèle avec deux ordres de différenciation suppose une tendance locale variable dans le temps - il s'agit essentiellement d'un modèle de lissage exponentiel linéaire - et ses projections de tendance sont un peu plus volage. En règle générale, dans ce genre de situation, je recommande de choisir le modèle avec l'ordre inférieur de différenciation, d'autres choses étant à peu près égales. En pratique, les modèles aléatoire ou simple-exponentiel-lissage semblent souvent mieux fonctionner que les modèles de lissage exponentiel linéaire. Modèles mixtes: Dans la plupart des cas, le meilleur modèle résulte d'un modèle qui utilise soit des termes AR ou seulement des termes MA, bien que dans certains cas un modèle quotmixedquot avec des termes AR et MA puisse fournir le meilleur ajustement aux données. Cependant, il faut faire preuve de prudence lors de l'installation de modèles mixtes. Il est possible pour un terme AR et un terme MA d'annuler les effets des autres. Même si les deux peuvent paraître significatifs dans le modèle (comme le jugent les statistiques t de leurs coefficients). Ainsi, supposons, par exemple, que le modèle quotcorrectquot pour une série temporelle soit un modèle ARIMA (0,1,1), mais plutôt un modèle ARIMA (1,1,2) - c'est-à-dire. Vous incluez un terme AR supplémentaire et un terme MA supplémentaire. Ensuite, les termes supplémentaires peuvent finir par apparaître significative dans le modèle, mais en interne, ils peuvent être simplement travailler les uns contre les autres. Les estimations de paramètres résultantes peuvent être ambiguës, et le processus d'estimation de paramètre peut prendre de très nombreuses (par exemple plus de 10) itérations à converger. Par conséquent: Règle 8: Il est possible pour un terme AR et un terme MA d'annuler les autres effets, donc si un modèle mixte AR-MA semble correspondre aux données, essayez aussi un modèle avec un AR moins terme et un moins MA terme - en particulier si les estimations de paramètres dans le modèle d'origine nécessitent plus de 10 itérations pour converger. Pour cette raison, les modèles ARIMA ne peuvent pas être identifiés par une approche quotback stepwisequot qui inclut les termes AR et MA. En d'autres termes, vous ne pouvez pas commencer par inclure plusieurs termes de chaque type, puis jeter ceux dont les coefficients estimés ne sont pas significatifs. Au lieu de cela, vous suivez normalement une approche quotforward stepwisequot, en ajoutant des termes d'un type ou l'autre comme indiqué par l'apparition des tracés ACF et PACF. Racines unitaires: Si une série est grossièrement sous-ou surdifférenciée - c'est-à-dire. Si un ordre entier de différenciation doit être ajouté ou annulé, cela est souvent signalé par une racine quotunit dans les coefficients AR ou MA estimés du modèle. Un modèle AR (1) est dit avoir une racine unitaire si le coefficient estimé AR (1) est presque exactement égal à 1. (Par citation exactement égale, je veux vraiment dire pas significativement différent de. En termes de coefficients propre erreur standard. ) Lorsque cela se produit, cela signifie que le terme AR (1) imite exactement une première différence, auquel cas vous devez supprimer le terme AR (1) et ajouter un ordre de différenciation à la place. (C'est exactement ce qui se produirait si vous avez équipé un modèle AR (1) à la série UNITS non différenciée, comme indiqué précédemment). Dans un modèle d'ordre supérieur, une racine unitaire existe dans la partie AR du modèle si la somme de Les coefficients AR sont exactement égaux à 1. Dans ce cas, vous devez réduire l'ordre du terme AR par 1 et ajouter un ordre de différenciation. Une série temporelle avec une racine unitaire dans les coefficients AR est non stationnaire - ie. Il faut un ordre plus élevé de différenciation. Règle 9: S'il y a une racine unitaire dans la partie AR du modèle - c'est-à-dire. Si la somme des coefficients AR est presque exactement 1 - vous devriez réduire le nombre de termes AR par un et augmenter l'ordre de différenciation par un. De même, on dit qu'un modèle MA (1) a une racine unitaire si le coefficient MA (1) estimé est exactement égal à 1. Lorsque cela se produit, cela signifie que le terme MA (1) annule exactement une première différence, en Dans ce cas, vous devez supprimer le terme MA (1) et également réduire l'ordre de différenciation par un. Dans un modèle MA d'ordre supérieur, une racine unitaire existe si la somme des coefficients MA est exactement égale à 1. Règle 10: S'il y a une racine unitaire dans la partie MA du modèle - c.-à-d. Si la somme des coefficients MA est presque exactement 1 - vous devriez réduire le nombre de termes MA par un et réduire l'ordre de différenciation par un. Par exemple, si vous ajustez un modèle de lissage exponentiel linéaire (un modèle ARIMA (0,2,2)) quand un simple modèle de lissage exponentiel (un modèle ARIMA (0,1,1) aurait été suffisant, La somme des deux coefficients MA est très près égale à 1. En réduisant l'ordre MA et l'ordre de différenciation par un chacun, vous obtenez le modèle SES plus approprié. Un modèle de prévision avec une racine unitaire dans les coefficients estimés de MA est dit noninvertible. Ce qui signifie que les résidus du modèle ne peuvent pas être considérés comme des estimations du bruit aléatoire quottruequot qui a généré la série chronologique. Un autre symptôme d'une racine unitaire est que les prévisions du modèle peuvent quotblow upquot ou se comportent autrement bizarrement. Si le graphique chronologique des prévisions à long terme du modèle semble étrange, vérifiez les coefficients estimés de votre modèle pour la présence d'une racine unitaire. Règle 11: Si les prévisions à long terme semblent erratiques ou instables, il peut y avoir une racine unitaire dans les coefficients AR ou MA. Aucun de ces problèmes n'est apparu avec les deux modèles ici, car nous avons pris soin de commencer par des ordres plausibles de différenciation et un nombre approprié de coefficients AR et MA en étudiant les modèles ACF et PACF. Des discussions plus détaillées sur les racines unitaires et les effets d'annulation entre AR et MA peuvent être trouvées dans le document Structure mathématique des modèles ARIMA.


No comments:

Post a Comment