Objectifs et motivations Les objectifs sont de deux ordres: la gestion des risques. Modélisation de la distribution des prix (tails de distribution, skewness, kurtosis, dépendances temporelles) avec pour objectif de sélectionner les meilleurs modèles pour estimer les mesures de risque telles que la Value at Risk. Différents modèles seront étudiés, couvrant la VaR historique, le modèle normal avec différents modèles de volatilité (Risk Metrics, GARCH), la VaR de Fisher de Cornish, les modèles VaR basés sur la théorie de la valeur extrême. Enfin, les différents modèles sont testés à l'arrière pour sélectionner le meilleur modèle et l'utiliser pour gérer un fonds sous contraintes de risque dynamique. Gestion active du portefeuille. Ce projet consiste à étudier différentes stratégies actives avec un rééquilibrage (en utilisant les critères dits de Kelly, la théorie des portefeuilles stochastiques), les stratégies de convergence (trading de paires). Les projets seront développés sous le logiciel statistique et graphique puissant R-Project r-project. org. Qui est la version open source de S-plus. Différents aspects des prix financiers seront abordés: test d'hypothèses pour la normalité: qq-parcelles, Kolmogorov Smirnov, Jarque-Bera. Tests d'indépendance: diagrammes de dispersion, corrélogrammes automatiques (ACF), test de Durbin Watson, tests d'exécution. Adapté à différentes distributions connues: étudiant, exponentiel, séries chronologiques: corrélations automatiques des rendements et des retours carrés, effets de mise à l'échelle, loi du maximum et du minimum, temps de frappe. Régression linéaire et modèles de facteurs Covariance Filtrage de matrice, analyse de composante principale Analyse de style Modèles de volatilité et estimations: Mesure du risque, GARCH Mesures de risque: Value at Risk, Shortfall attendu, Maximum Drawdown, VaR pour le portefeuille avec options, Delta Gamma et Monte Carlo Mesures de performance: Ratio de Sharpe, RAPM Morningstar, Ratio Sortino, Ratio GainLoss, Indice Stutzer, CALMAR et Ratios Sterling. Trading de convergence, Test de racine unitaire Dynamic Portfolio Management, rééquilibrage. Toutes les applications seront développées avec des données de marché réelles. pdf Prsentation des R-projets et des exemples pdf Faits stylisés pdf Valeur à risque et théorie de la valeur extrême. Pdf Estimations de la volatilité et des corrélations. Moyenne mobile exponentielle (RiskMetrics), GARCH, estimations basées sur les hauts et les bas (Garman Klass, Parkinson, Roger Satchell). Pdf Co-intgration, PairsConvergence Trading. Autres présentations pdf Trading automatisé I pdf Trading Automatique II. La moyenne mobile pondérée exponentielle (Risk Metrics) et GARCH Objective est d'étudier et de comparer l'estimation de la volatilité en utilisant un schéma de pondération différent. Données stylisées: corrélation automatique des rendements, des retours au carré, de la fourchette, etc. Estimation des facteurs de lissage à l'aide de l'erreur quadratique moyenne ou des critères de maximum de vraisemblance, validant la prévision par régression linéaire. Estimation des modèles GARCH, sélection des meilleurs modèles en utilisant les critères AIC et BIC. Valeur à risque, estimation, backtesting et implemeting pour la gestion de fonds La Value at Risk est certainement l'un des outils les plus importants pour mesurer le risque d'investissements pour des positions prudentielles. Il devient de plus en plus utilisé dans la gestion d'actifs ainsi. Dans ce projet, l'objectif est de gérer un fonds avec 10 millions d'euros sous gestion avec la contrainte de maintenir une VaR constante tout le temps. Les 19 jours de VaR à 99 seront égaux à 4 de la Valeur Nette d'Inventaire. Différents modèles de VaR seront examinés et testés. L'un d'entre eux sera sélectionné et mis en œuvre et les postes seront ajustés pour atteindre l'objectif de risque. Finall, la performance du fonds géré activement sera comparée à la stratégie Buy and Hold en termes de performance, de sharpe, etc. Une première étape consistera à étudier les différents modèles VaR 13 pour les actifs, y compris la VaR historique, la delta normale Modèle avec RiskMetrics et GARCH volatilité, Cornish Fischer VaR, enfin VaR basé sur la théorie de la valeur extrême. L 'étude sera fermée aux étapes décrites en 10. Ce travail pratique consiste à étudier les propriétés et les statistiques du Maximum Drawdown (MDD) suivant le travail de Magdon Ismail (voir alumnus. caltech. edu amirmdd-risk. pdf). La relation entre le sharpe (performancevolatility) et le calmar (performancedrawdown) ratios Ce travail mettra également l'accent sur l'importance de la lutte contre le MDD en étudiant l'article de Nassim Taleb qui sont préférables, un cancer des patients ou un commerçant 5 ans survival Rates fooledbyrandomnesstradersurvival1.pdf Kelly criterium et stratégies de rééquilibrage Buy and Hold versus Rebalacing Ce projet consiste à comparer la performance d'une stratégie de portefeuille de référence passive Buy amp Hold (BampH) et de la stratégie correspondante du Portfolio rééquilibré (CRP) où le poids des actifs Classes d'actifs) sont maintenues constantes par des ajustements continus des opérations en fonction des fluctuations des prix. Nous étudions le comportement du portefeuille rééquilibré dans le cas d'un actif et de multiples actifs. Nous étudions la stratégie CRP vs BH pour les différents indices EUROSTOXX, comparons la stratégie à pondération égale dans les différents secteurs avec la stratégie Buy amp Hold, mettons en œuvre et backtest une stratégie neutre neutre LongShort: longue dans un secteur à pondération égale et short sur Eurostoxx 50 (avec des contrats à terme) tout en essayant de maintenir un abaissement maximal attendu constant. Tendances et stratégies de renversement moyen Quelques ressources sur R: site principal: cran. r-project. org. Manuels cran. r-project. orgmanuals. html. FAQ cran. r-project. orgdocFAQR-FAQ. html FAQ cran. r-project. orgsearch. html. Autres documents cran. r-project. orgautres-docs. html livres: Modélisation des séries chronologiques financières avec S-Plus par Eric Zivot, Jiahui Wang et Clarence R. Robbins 16 Statistiques d'introduction avec R, Peter Dalgaard 8 Programmation avec données: La langue S, John M. Chambers 5 Statistiques appliquées modernes avec S, William N. Venables et Brian D. Ripley 14 SimpleR: Utilisation de R pour les statistiques préliminaires, par John Verzani: math. csi. cuny. eduStatisticsRsimpleRindex. html Régression pratique et Anova En R: stat. lsa. umich. edufarawaybook Ce cours de niveau maîtrise couvrant les sujets suivants: Modèles linéaires: Définition, montage, inférence, interprétation des résultats, sens des coefficients de régression, identifiabilité, manque d'ajustement, multicolinéarité, régression des crêtes, principal Régression, moindres carrés partiels, splines de régression, théorème de Gauss-Markov, sélection des variables, diagnostics, transformations, observations influentes, procédures robustes, ANOVA et analyse de covariance, blocs aléatoires, conceptions factorielles. Prévision et prévision des séries chronologiques massey. ac. nz Rmetrics: itp. phys. ethz. checonophysicsR Introduction à l'informatique financière avec R couvrant les domaines de la gestion des données, des séries chronologiques et de l'analyse de régression, de la théorie des valeurs extrêmes et de l'évaluation des instruments du marché financier. Faculty. washington. eduezivotsplus. htm la page d'accueil de E. Zivot sur SPlus et FinMetrics CRAN Tâche Voir: Empirical Finance cran. r-project. orgsrccontribViewsFinance. html Autres logiciels de paquets pour la théorie de valeur extrême: urlmaths. lancs. ac. uk stephenasoftware. html RMetrics itp. phys. ethz. checonophysicsR Régression pratique et Anova dans R doc: cran. r-project. orgdoccontribFaraway-PRA. pdf paquet: stat. lsa. umich. edu1 ARTZNER, P. et DELBAEN, F. amp EBER, J. - M. HEATH, D. Mesures cohérentes du risque. 1998.. 2 ALEXANDER, C. Modèles de marché: Guide d'analyse des données financières. Wiley, 2003. 3 ALEXANDER, C. Analyse des risques de marché: économétrie financière pratique. Wiley, 2008. 4 BOUCHAUD, J. P amp POTTERS, M. Théorie des risques financiers. Cambridge University Press, 2000. 5 CHAMBERS, J. M. Programmation avec données. Springer, New York, 1998. ISBN 0-387-98503-4. 6 CHRISTOFFERSEN, P. Éléments de gestion des risques financiers. Academic Press, juillet 2003. 7 CONT, R. Propriétés empiriques des rendements d'actifs - faits stylisés et questions statistiques. FINANCEMENT QUANTITATIF, 2000. 8 DALGAARD, P. Statistiques d'introduction avec R. Springer, 2002. ISBN 0-387-95475-9. 9 GOURIEROUX, C. et SCAILLET, O. amp SZAFARZ, A. Économie de la finance. Economica, 1997. 11 LO. Amp CAMPBELL. Ampli MACKINLAY. L'économétrie des marchés financiers. Princeton University Press, 1997. 12 LO, A. W MACKINLAY, A. C. Une marche non-aléatoire en bas de Wall Street. Princeton University Press, Princeton, NJ, 1999. 13 LINSMEIER, T amp PEARSON, N. D. Mesure du risque: Introduction à la valeur à risque. Mars 2000.. 14 VENABLES, W. N et RIPLEY, B. D. Modern Applied Statistics avec S. Fourth Edition. Springer, 2002. ISBN 0-387-95457-0. 16 ZIVOT, E. amp WANG, J. et ROBBINS, C. R. Modélisation des séries chronologiques financières avec S-Plus. Springer Verlag, 2004.Explorer la moyenne mobile exponentiellement pondérée La volatilité est la mesure la plus courante du risque, mais elle est disponible en plusieurs saveurs. Dans un article précédent, nous avons montré comment calculer la volatilité historique simple. Nous avons utilisé les données réelles sur les actions de Googles afin de calculer la volatilité quotidienne basée sur 30 jours de données sur les actions. Dans cet article, nous améliorerons la volatilité simple et discuterons de la moyenne mobile exponentiellement pondérée (EWMA). Historique vs. Volatilité implicite Tout d'abord, mettons cette métrique dans un peu de perspective. Il existe deux grandes approches: la volatilité historique et implicite (ou implicite). L'approche historique suppose que le passé est prologue, nous mesurons l'histoire dans l'espoir qu'elle est prédictive. La volatilité implicite, d'autre part, ignore l'histoire qu'elle résout pour la volatilité impliquée par les prix du marché. Elle espère que le marché le sait mieux et que le prix du marché contient, même implicitement, une estimation de la volatilité. Si l'on se concentre uniquement sur les trois approches historiques (à gauche ci-dessus), elles ont deux étapes en commun: Calculer la série de retours périodiques Appliquer un schéma de pondération D'abord, nous Calculer le rendement périodique. C'est généralement une série de rendements quotidiens où chaque retour est exprimé en termes continuellement composés. Pour chaque jour, nous prenons le log naturel du ratio des prix des actions (c'est-à-dire le prix aujourd'hui divisé par le prix d'hier, et ainsi de suite). Cela produit une série de rendements quotidiens, de u i à u i-m. Selon le nombre de jours (m jours) que nous mesurons. Cela nous amène à la deuxième étape: c'est là que les trois approches diffèrent. Dans l'article précédent (Utilisation de la volatilité pour mesurer le risque futur), nous avons montré que, sous quelques simplifications acceptables, la variance simple est la moyenne des rendements au carré: Notez que ceci résume chacun des rendements périodiques, puis divise ce total par Nombre de jours ou observations (m). Donc, c'est vraiment juste une moyenne des rendements périodiques au carré. Autrement dit, chaque retour au carré reçoit un poids égal. Ainsi, si l'alpha (a) est un facteur de pondération (spécifiquement, un 1m), alors une variance simple ressemble à ceci: L'EWMA améliore la variance simple La faiblesse de cette approche est que tous les retours gagnent le même poids. Le retour hier (très récent) n'a plus d'influence sur la variance que le rendement des derniers mois. Ce problème est résolu en utilisant la moyenne mobile pondérée exponentiellement (EWMA), dans laquelle les rendements plus récents ont un poids plus important sur la variance. La moyenne mobile exponentiellement pondérée (EWMA) introduit lambda. Qui est appelé le paramètre de lissage. Lambda doit être inférieur à un. Sous cette condition, au lieu de pondérations égales, chaque rendement au carré est pondéré par un multiplicateur comme suit: Par exemple, RiskMetrics TM, une société de gestion des risques financiers, a tendance à utiliser un lambda de 0,94 ou 94. Dans ce cas, le premier La plus récente) le rendement périodique au carré est pondéré par (1-0.94) (. 94) 0 6. Le prochain rendement au carré est simplement un multiple lambda du poids antérieur dans ce cas 6 multiplié par 94 5.64. Et le troisième jour antérieur, le poids est égal à (1-0,94) (0,94) 2 5,30. C'est le sens de l'exponentielle dans EWMA: chaque poids est un multiplicateur constant (c'est-à-dire lambda, qui doit être inférieur à un) du poids des jours précédents. Cela garantit une variance pondérée ou biaisée vers des données plus récentes. (Pour en savoir plus, consultez la feuille de calcul Excel pour la volatilité de Googles.) La différence entre la volatilité et l'EWMA pour Google est illustrée ci-dessous. La volatilité simple pèse efficacement chaque rendement périodique de 0.196 comme indiqué dans la colonne O (nous avions deux années de données quotidiennes sur les cours des actions, soit 509 déclarations quotidiennes et 1509 0.196). Mais notez que la colonne P attribue un poids de 6, puis 5.64, puis 5.3 et ainsi de suite. C'est la seule différence entre la variance simple et EWMA. Rappelez-vous: Après avoir additionné toute la série (dans la colonne Q), nous avons la variance, qui est le carré de l'écart-type. Si nous voulons la volatilité, nous devons nous rappeler de prendre la racine carrée de cette variance. Quelle est la différence entre la volatilité quotidienne entre la variance et l'EWMA dans l'affaire Googles? Sa significative: La variance simple nous a donné une volatilité quotidienne de 2,4 mais l'EWMA a donné une volatilité quotidienne de seulement 1,4 (voir la feuille de calcul pour plus de détails). Apparemment, la volatilité de Googles s'est installée plus récemment donc, une simple variance pourrait être artificiellement élevée. La variation d'aujourd'hui est une fonction de la variation des jours Pior Vous remarquerez que nous devions calculer une longue série de poids exponentiellement en déclin. Nous ne ferons pas les calculs ici, mais l'une des meilleures caractéristiques de l'EWMA est que la série entière se réduit commodément à une formule récursive: Recursive signifie que les références de variance d'aujourd'hui (c'est-à-dire une fonction de la variance des jours précédents). La variance d'aujourd'hui (sous EWMA) équivaut à la variance d'hier (pondérée par lambda) plus le rendement au carré d'hier (pesé par un lambda négatif). Remarquez comment nous ajoutons simplement deux termes ensemble: la variance pondérée d'hier et la pondération pondérée hier, au carré. Même si, lambda est notre paramètre de lissage. Un lambda plus élevé (par exemple, comme RiskMetrics 94) indique une diminution plus lente dans la série - en termes relatifs, nous allons avoir plus de points de données dans la série et ils vont tomber plus lentement. En revanche, si l'on réduit le lambda, on indique une décroissance plus élevée: les poids diminuent plus rapidement et, en résultat direct de la décroissance rapide, on utilise moins de points de données. (Dans la feuille de calcul, lambda est une entrée, donc vous pouvez expérimenter avec sa sensibilité). Résumé La volatilité est l'écart-type instantané d'un stock et la métrique de risque la plus courante. C'est aussi la racine carrée de la variance. Nous pouvons mesurer la variance historiquement ou implicitement (volatilité implicite). Lors de la mesure historique, la méthode la plus simple est la variance simple. Mais la faiblesse avec la variance simple est tous les retours obtenir le même poids. Nous sommes donc confrontés à un compromis classique: nous voulons toujours plus de données, mais plus nous avons de données, plus notre calcul est dilué par des données distantes (moins pertinentes). La moyenne mobile pondérée exponentiellement (EWMA) améliore la variance simple en attribuant des pondérations aux rendements périodiques. En faisant cela, nous pouvons utiliser une grande taille d'échantillon mais aussi donner plus de poids à des retours plus récents. (Pour voir un film tutoriel sur ce sujet, visitez le Bionic Turtle.) Vs simple. Moyennes mobiles exponentielles Les moyennes mobiles sont plus que l'étude d'une séquence de nombres dans l'ordre successif. Les premiers praticiens de l'analyse des séries chronologiques étaient en fait plus préoccupés par les séries temporelles individuelles que par l'interpolation de ces données. Interpolation. Sous la forme de théories de probabilité et d'analyse, est venu beaucoup plus tard, à mesure que les modèles ont été développés et les corrélations découvertes. Une fois comprises, diverses courbes et lignes ont été dessinées le long de la série chronologique dans une tentative de prédire où les points de données pourraient aller. Ce sont maintenant considérés comme des méthodes de base actuellement utilisées par les commerçants d'analyse technique. Analyse de cartographie peut être retracée au Japon du 18ème siècle, mais comment et quand les moyennes mobiles ont été appliqués pour la première fois aux prix du marché reste un mystère. Il est généralement admis que les moyennes mobiles simples (SMA) ont été utilisées longtemps avant les moyennes mobiles exponentielles (EMA), parce que les EMA sont construites sur la structure SMA et que le continuum SMA a été plus facilement compris pour le tracé et le suivi. Moyennes mobiles simples (SMA) Moyennes mobiles simples est devenu la méthode préférée pour le suivi des prix du marché parce qu'ils sont rapides à calculer et facile à comprendre. Les premiers praticiens du marché fonctionnaient sans l'utilisation des données graphiques sophistiquées utilisées aujourd'hui, alors ils se fondaient principalement sur les prix du marché comme leurs seuls guides. Ils ont calculé les prix du marché à la main et ont représenté ces prix en fonction des tendances et de l'orientation du marché. Ce processus a été assez fastidieux, mais s'est avéré très rentable avec la confirmation d'études supplémentaires. Pour calculer une moyenne mobile simple de 10 jours, ajoutez simplement les cours de clôture des 10 derniers jours et divisez par 10. La moyenne mobile de 20 jours est calculée en ajoutant les cours de clôture sur une période de 20 jours et divisez par 20, bientôt. Cette formule n'est pas seulement basée sur les prix de clôture, mais le produit est une moyenne des prix - un sous-ensemble. Les moyennes mobiles sont appelées mouvement car le groupe de prix utilisé dans le calcul se déplace selon le point sur le graphique. Cela signifie que les jours anciens sont abandonnés en faveur de nouveaux jours de prix de clôture, donc un nouveau calcul est toujours nécessaire correspondant à la période de la moyenne employée. Ainsi, une moyenne de 10 jours est recalculée en ajoutant le nouveau jour et en laissant tomber le 10e jour, et le neuvième jour est abandonné le deuxième jour. Moyenne mobile exponentielle (EMA) La moyenne mobile exponentielle a été raffinée et plus couramment utilisée depuis les années 1960, grâce à des expériences antérieures des praticiens avec l'ordinateur. La nouvelle EMA mettrait plus l'accent sur les prix les plus récents que sur une longue série de points de données, car la moyenne mobile simple est requise. EMA actuel ((Prix (actuel) - précédent EMA)) X multiplicateur) EMA précédente. Le facteur le plus important est la constante de lissage 2 (1N) où N le nombre de jours. Une EMA de 10 jours 2 (101) 18.8 Cela signifie qu'une EMA de 10 périodes pondère le prix le plus récent 18.8, un EMA de 20 jours de 9.52 et un poids EMA de 50 jours de 3.92 le jour le plus récent. L'EMA travaille en pondérant la différence entre le prix des périodes courantes et l'EMA précédente, et en ajoutant le résultat à l'EMA précédente. Plus la période est courte, plus le prix appliqué au prix le plus récent est élevé. Fitting Lines Par ces calculs, les points sont tracés, révélant une ligne de montage. Les lignes d'alignement supérieures ou inférieures au prix du marché signifient que toutes les moyennes mobiles sont des indicateurs en retard. Et sont utilisés principalement pour suivre les tendances. Ils ne fonctionnent pas bien avec les marchés de gamme et les périodes de congestion parce que les lignes d'ajustement ne parviennent pas à dénoter une tendance due à un manque de hauts plus évidents évidents ou des plus bas. De plus, les lignes d'ajustement tendent à rester constantes sans indication de direction. Une ligne de montage en hausse au-dessous du marché signifie un long, tandis qu'une ligne de montage en baisse au-dessus du marché signifie un court. Le but de l'utilisation d'une moyenne mobile simple est de repérer et de mesurer les tendances en lissant les données en utilisant les moyens de plusieurs groupes de prix. Une tendance est repérée et extrapolée dans une prévision. L'hypothèse est que les mouvements de tendance antérieurs se poursuivront. Pour la moyenne mobile simple, une tendance à long terme peut être trouvée et suivie beaucoup plus facilement qu'une EMA, avec l'hypothèse raisonnable que la ligne d'ajustement tiendra plus fort qu'une ligne d'EMA en raison de l'accent plus long sur les prix moyens. Un EMA est utilisé pour capturer des mouvements de tendance plus courte, en raison de la focalisation sur les prix les plus récents. Par cette méthode, un EMA supposé pour réduire les décalages dans la moyenne mobile simple de sorte que la ligne d'ajustement sera étreindre les prix plus proche d'une simple moyenne mobile. Le problème avec l'EMA est la suivante: il est sujet à des ruptures de prix, surtout pendant les marchés rapides et les périodes de volatilité. L'EMA fonctionne bien jusqu'à ce que les prix cassent la ligne d'ajustement. Lors de marchés de volatilité plus élevés, vous pourriez envisager d'augmenter la durée de la moyenne mobile terme. On peut même passer d'un EMA à un SMA, puisque le SMA lisse les données beaucoup mieux qu'une EMA en raison de son accent sur les moyens à plus long terme. Indicateurs de tendance En tant qu'indicateurs en retard, les moyennes mobiles servent bien de lignes de soutien et de résistance. Si les prix se situent en dessous d'une ligne d'ajustement de 10 jours dans une tendance à la hausse, les chances sont bonnes que la tendance à la hausse peut être en baisse, ou du moins le marché peut se consolider. Si les prix cassent au-dessus d'une moyenne mobile de 10 jours dans une tendance baissière. La tendance peut se réduire ou se consolider. Dans ces cas, employez une moyenne mobile de 10 et 20 jours ensemble et attendez que la ligne de 10 jours passe au-dessus ou au-dessous de la ligne de 20 jours. Cela détermine la prochaine orientation à court terme pour les prix. Pour les périodes à plus long terme, regardez les moyennes mobiles de 100 et 200 jours pour une direction à plus long terme. Par exemple, en utilisant les moyennes mobiles de 100 et 200 jours, si la moyenne mobile de 100 jours passe au-dessous de la moyenne de 200 jours, on l'appelle la croix de la mort. Et est très baissière pour les prix. Une moyenne mobile de 100 jours qui dépasse une moyenne mobile de 200 jours est appelée la croix d'or. Et est très haussière pour les prix. Il n'est pas question si un SMA ou un EMA est utilisé, car les deux sont des indicateurs de tendance. Ce n'est qu'à court terme que la SMA a de légères déviations par rapport à son homologue, l'EMA. Conclusion Les moyennes mobiles sont la base de l'analyse des graphiques et des séries chronologiques. Moyennes mobiles simples et les moyennes mobiles exponentielles plus complexes aider à visualiser la tendance en lissant les mouvements des prix. L'analyse technique est parfois désignée comme un art plutôt qu'une science, qui prennent des années à maîtriser. (En savoir plus dans notre didacticiel d'analyse technique.)
No comments:
Post a Comment