Thèse présentée par





télécharger 1.72 Mb.
titreThèse présentée par
page6/31
date de publication11.02.2017
taille1.72 Mb.
typeThèse
e.20-bal.com > comptabilité > Thèse
1   2   3   4   5   6   7   8   9   ...   31

Section 2. L'analyse statistique des marchés.

L'étude des comportements et des mécanismes boursiers s'est toujours réalisée à l'aide d'outils statistiques et probabilistes. C'est pour cette raison que nous consacrons une section aux outils utilisés et à leur lien avec les hypothèses présentées dans la première section.

La première des études modernes sur l'évolution du prix des actifs est celle de BACHELIER (1900). OSBORNE (1964) reprend et développe ce modèle mathématique. C'est sur ces bases que va progresser l'étude statistique des cours. Le modèle de OSBORNE a été affiné ou contredit, mais toujours dans une optique probabiliste avec l'idée de mouvements aléatoires. Ce modèle, et tous ses dérivés, vont constituer le moyen d'apporter un éclairage à la question de l'efficience des marchés.

Le modèle de base autour duquel évoluent les travaux sur la nature des marchés financiers est le suivant. Soit Xt le cours (ou son logarithme) d'un actif au temps t. L'étude va se focaliser sur l'innovation t c'est à dire sur la différence absolue ou relative (si les cours sont exprimés en logarithme) des prix de l'actif.

t = Xt - Xt-1 ou t = ln(Xt/Xt-1)

Le marché financier idéal, au sens de l'efficience faible, suppose une innovation aléatoire puisque les cours intègrent rationnellement l'information dès sa parution. Le seul prédicteur fiable pour la prévision de Xt est Xt-1. Les caractéristiques statistiques de l'innovation vont être établies par OSBORNE en 1964 qui conceptualise ce que BACHELIER avait analysé dans un premier temps. De critiques en affaiblissements, plusieurs voies de recherche se sont développées. Le trait d'union de tous ces travaux est de déterminer la nature aléatoire ou non de l'évolution des cours. A quelle loi statistique se rattacher ? Quel modèle utiliser ? Quels tests prendre en compte ? Pour vérifier quelle hypothèse exactement ?

I. Une question de loi.

1. Le modèle de OSBORNE (1964).

Dans ce modèle, l'innovation des prix est décrite par un mouvement brownien. OSBORNE développe plusieurs hypothèses qui, outre le caractère aléatoire de cette innovation, mettent l'accent sur son caractère gaussien. Ces hypothèses, au nombre de sept, sont :

(1) Les prix varient par unité minimale d'un huitième de dollar;

(2) Il y a un nombre fini et entier de transactions se déroulant par unité de temps;

(3) Par analogie à la loi de WEBER et FECHNER19, OSBORNE postule que le prix stimule la sensation objective de la valeur dans l'esprit de l'investisseur comme l'intensité acoustique stimule une sensation chez l'être humain. Toujours par analogie avec les sciences physiques, OSBORNE pose qu'une variation du prix correspond à une variation égale de la valeur. C'est l'argument de ROBERTS (1959) pour lequel une évolution aléatoire serait le summum de l'efficience car le prix intègre immédiatement l'information (liée à la valeur ou autre). Le prix évoluerait de concert avec la valeur fondamentale. Cela va donc plus loin que l'idée défendue par les fondamentalistes;

(4) Une décision sera logique si entre deux actifs l'investisseur choisit celui présentant l'espérance de rentabilité la plus élevée. L'analyse en termes d'espérance-variance n'intervient pas ici;

(5) Ni les acheteurs ni les vendeurs n'ont d'avantage les uns par rapport aux autres en termes d'espérance de gain. Il y a donc un prix d'équilibre lors de l'échange;

(6) Sous les hypothèses précédentes il suit que la distribution de l'innovation (Log(Pt+/Pt)) est gaussienne d'espérance nulle et de variance 2. Cette variance croît avec l'intervalle  et est de la forme ;

(7) Supposons que i soit l'innovation pour un temps très court, séparant par exemple deux échanges. Posons alors l'innovation quotidienne comme la somme de ces innovations i définies pour un temps infiniment petit. Par le théorème central limite, il est montré que l'innovation quotidienne est distribuée selon une loi normale.

Le modèle de OSBORNE confirme le fait que l'innovation des cours sur un marché boursier est un processus aléatoire. Afin de rendre l'étude de ce processus possible, OSBORNE spécifie la loi statistique de distribution de cette innovation. Dans son article il justifie l'utilisation de la loi normale comme résultat logique des hypothèses qu'il a posées.

Cependant l'hypothèse de normalité de l'innovation est rapidement critiquée puisqu'un an auparavant, deux articles mettaient en avant le caractère erroné de cette hypothèse de normalité.

2. Abandon de la normalité.

MANDELBROT (1963) et FAMA (1963) remettent en cause le caractère gaussien de l'innovation en s'appuyant notamment sur des études empiriques. MANDELBROT (1963) constate que le caractère leptokurtique des séries financières empêche d'utiliser sans biais la loi normale. L'histogramme de la distribution des changements mensuels de cotation des prix du coton de 1890 à 1937 montre une différence flagrante par rapport à la distribution théorique gaussienne notamment en ce qui concerne le cœfficient d'aplatissement20. Il propose alors l'utilisation de la loi stable de PARETO décrite en 1925 par LEVY. Cette dernière présente une distribution unimodale, en forme de cloche mais avec un aplatissement pouvant être plus ou moins important. Elle a entre autres avantages d'être une généralisation de la loi de Gauss qu'elle englobe comme un cas particulier. Les lois stables possèdent la propriété d'invariance en loi par l'addition comme la loi normale qui est en revanche la seule loi connue à posséder cette propriété avec une variance finie. En effet, comme nous allons le voir avec les travaux de FAMA, les lois stables peuvent n'avoir ni deuxième ni premier moment fini. En 1963, FAMA donne une description détaillée des lois stables avec leurs principales caractéristiques puis, en 1965, il propose des tests permettant d'établir une discrimination entre la loi normale et les autres lois stables.

A. Lois stables : description et caractéristiques.

Une loi stable (ou loi de PARETO-LEVY) est une loi statistique telle que le logarithme de sa fonction caractéristique est :

Log f(t) = i t - |t| [1-i ( |t| / t) w(t,)]

avec w(t,) = tg /2 si ≠1

w(t,) = 2/log|t| sinon

i : le nombre imaginaire

Une distribution Pareto stable se définit par quatre paramètres fondamentaux qui sont , , , .

L'exposant caractéristique (0 < ≤ 2 )

- Pour =2, la loi est une loi normale

- Pour =1, la loi est une loi de Cauchy

- Pour  compris entre 0 et 2 la loi est leptokurtique.

Plus  se rapproche de 0, plus les queues de distribution sont épaisses, plus la probabilité d'événements rares est importante. Lorsque  est compris entre 1 et 2 le moment de second ordre est infini. Et si  est inférieur à 1, alors le moment d'ordre 1 est également infini.

Le paramètre de symétrie (-1 ≤  ≤ 1)

- Pour  = 0, la distribution est symétrique

- Pour  > 0, il y a asymétrie à droite

- Pour  < 0, il y a asymétrie à gauche

Le paramètre de localisation ()

- Pour  > 1,  est l'espérance de la distribution

- Pour  < 1,  est un paramètre de position (la médiane si =0)

Le paramètre d'échelle ()

- Pour  = 2 (loi normale),  est la moitié de la variance du processus

Pour la loi normale centrée réduite, les paramètres sont :

 = 2,  = 0,  = 1/2,  = 0

Les distributions Pareto stables possèdent trois propriétés qui rendent leur utilisation très intéressante :

- les queues de distributions des lois stables suivent une loi de Pareto ;

- ces lois sont invariantes par l'addition21;

- elles sont les seules lois limites possibles pour la somme de variables iid.

B. Tests sur la nature de la loi stable.

FAMA (1965) donne trois méthodes permettant de vérifier selon quelle loi stable une série est distribuée. Ces mesures consistent surtout en l'estimation du cœfficient  qui permet de choisir parmi l'infinité de lois stables existantes.

Méthode graphique.

Si une variable aléatoire u suit une loi stable, alors ses queues de distribution sont telles que :

Pr(u>û)  (û/U1)- û>0

Pr(u<û)  (|û|/U2)- û<0

où U1 et U2 sont des constantes

Il en est déduit

Log Pr(u>û)  - (Log û - Log U1)

Log Pr(u<û)  - (Log |û| - Log U2)

Il suffit de représenter sur le graphique d'abscisse Log |û| et d'ordonnées Log Pr(u>û) et Log Pr(u<û) les points pour des valeurs croissantes de |û|. Au fur et à mesure que |û| augmente, les points forment une droite. L'opposé de la pente de cette droite nous donne . Pour calculer ce cœfficient, il faut fixer les valeurs des autres qui peuvent être =0, =0 et =1 par exemple, ce qui est assez arbitraire.

Le problème est que pour des valeurs de  proches de 2, il faut un échantillon de très grande taille pour éviter un biais. Par exemple si la valeur réelle de ce cœfficient est de 1,9 il faut 2000 données pour que cette valeur soit perçue graphiquement. Pour =1,99 il faut un échantillon dont la taille excède 16667 données. Cette méthode semble donc adéquate pour de très grands échantillons ou pour détecter des valeurs de  relativement faibles. Dans le cas contraire il subsiste un biais important dans le calcul de .

Analyse de l'étendue.

Par la propriété d'invariance, la somme de n variables stables indépendantes est une variable stable avec un même cœfficient . Cependant le cœfficient d'échelle  est changé. Pour conserver la même échelle22, il faut diviser chacune des variables sommées par n1/. L'échelle d'une somme de variables stables non pondérées est donc n1/ fois l'échelle de chacune des variables. L'étendue interfractile23 de la distribution de la somme de n variables stables indépendantes et de même échelle est donc donnée par :

Rn = n1/ R1

où Rn est l'étendue interfractile de la somme des n variables

R1 est l'étendue interfractile des variables non sommées

En résolvant ceci, il vient alors :



Le calcul des différentes valeurs de  peut s'effectuer en prenant plusieurs valeurs de n et différentes étendues interfractiles. Pour des données mensuelles, les étendues interfractiles de la distribution des variations de prix mensuelles peuvent se “comparer” aux étendues de la distribution des variations trimestrielles, semestrielles et annuelles. Afin d'obtenir une valeur unique de l'exposant caractéristique, il est possible ensuite de faire la moyenne (ou prendre la médiane) des différentes valeurs de  calculées et d'en tirer une indication sur la nature de la série étudiée. FAMA soulève le problème du biais entraîné par l'emploi de cette méthode sur une série autocorrélée.  sera en effet sous-évalué (surévalué) en cas de dépendance positive (négative) ; il est donc nécessaire de vérifier l'absence de corrélation dans la série avant d'utiliser l'analyse d'étendue pour déterminer .

Calcul par la variance séquentielle.

La variance théorique d'une variable suivant une loi stable est infinie dès que  est inférieur à 2, mais il est possible de calculer la variance empirique. FAMA utilise une propriété qu'il démontre en annexe. Prenons le cas d'une variable z distribuée selon une loi stable de paramètre de localisation nul (=0). Nous savons (propriétés d'invariance par la somme) que les distributions de z2 et de la somme pondérée par n-2/ de n variables yi élevées au carré sont alors identiques. La variance empirique S2 de yi après transformation permet d'écrire :



Il apparaît donc que la variance va croître avec la taille de l'échantillon. Supposons deux échantillons de dimensions respectives n0 et n1 (avec n01) et d'écart-type respectifs S0 et S1. La relation entre les deux variances empiriques est de la forme :



De là,  se déduit aisément:



Le problème va résider ici dans le choix arbitraire de n0 et n1. Il faudra procéder par balayage en calculant  pour différentes tailles des deux sous-échantillons.

Nous avons donc plusieurs méthodes permettant, sous l'hypothèse préalable que nous sommes en présence d'une variable distribuée selon une loi stable, de savoir si cette loi est le cas particulier de la loi normale (=2) ou si nous sommes confrontés à une des lois stables dont l'utilisation demeure malheureusement bien difficile. Ces méthodes de calcul de  restent assez frustres mais permettent de préciser la valeur de l'exposant caractéristique.

En résumé, l'idée est que les lois stables permettent d'incorporer à l'étude des cours les valeurs extrêmes et de conserver une approximation statistique cohérente du processus. Certes la loi normale est plus simple à utiliser mais elle semble inadaptée dans certains cas. Et dans un schéma probabiliste, la question se pose de savoir quelle est la meilleure loi pour l'étude des séries boursières. Des modèles ont donc été élaborés pour s'adapter au profil souhaité : marche aléatoire et martingale. Nous allons maintenant présenter ces modèles très importants en finance.

II. Un modèle pour les cours boursiers.

La question du modèle idéal de description des marchés a connu une réponse des plus rapides. En effet, dès 1990, BACHELIER développe le modèle appelé plus tard processus de WIENER ou mouvement brownien. Ce modèle adapté aux séries continues verra en la marche aléatoire son alter ego pour l'étude des séries en temps discret24.

1. La marche aléatoire.

Un processus {Xt} est une marche aléatoire si :

Xt+1 = Xt + t+1 (1)

t terme aléatoire indépendamment et identiquement distribué

Ce modèle statistique de l'évolution aléatoire des séries boursières est la traduction probabiliste de l'hypothèse de rationalité des investisseurs. Nous avons vu précédemment que les quantitativistes défendent cette hypothèse. Ils la traduisent en une forme testable, falsifiable pour se référer à la terminologie popérienne. WORKING (1934) et KENDALL (1953) sont, dans un premier temps, les principaux défenseurs de cette théorie. Cependant, la notion de marche aléatoire va être diversement interprétée dans l'histoire pour des raisons de commodités calculatoires ou afin de mieux cerner les résultats empiriquement constatés.

OSBORNE (1964) affirme qu'un actif financier suit une marche aléatoire si les innovations sont indépendantes et suivent une même distribution normale. Dans l'équation précédente cela signifie que t est un bruit blanc gaussien (noté également, t est n.i.d25 (0, 2 )).

FAMA (1963) reprend cette définition en supprimant la contrainte de normalité imposée jusqu'alors sur la loi de l'innovation. Il préconise pour cela l'emploi des lois stables de PARETO-LEVY ; t doit alors être un bruit blanc. FAMA possède ici la même sensibilité que lorsqu'il donne la définition de l'efficience des marchés en 1970.

GRANGER et MORGENSTERN (1970) proposent une nouvelle définition qui est d'ailleurs la plus couramment utilisée actuellement (par exemple TAYLOR, 1986). Soit {Xt }, le processus stochastique définit par la relation (1). Il suit une marche aléatoire si et seulement si :

E(t ) = E(t+) , le nombre de période de décalage

Cov(t ,t+ ) = 0  ≠ 0

L'abandon de l'hypothèse de normalité déjà posé par FAMA introduit une différence entre indépendance et nullité des autocovariances. La définition de GRANGER et MORGENSTERN est moins restrictive que celle de FAMA. Ils remplacent “distributions identiques” par “espérances identiques” et “indépendance” par “nullité des covariances”. Le caractère moins restrictif de cette définition permet de l'envisager comme un moyen de tester l'efficience au sens de JENSEN (1978) reprise d'ailleurs par FAMA en 1991. Cependant il faut interpréter la nullité en covariance avec une certaine prudence. En effet, si une série financière présente certaines de ces covariances empiriques non nulles, il faut regarder l'importance de ces covariances empiriques avant d'en déduire un rejet de l'efficience.

Le débat autour du modèle s'est concentré sur deux points. Premièrement, il est discuté de la pertinence de l'hypothèse de normalité. Celle-ci est rapidement remise en cause mais des tests fondés sur cette hypothèse sont toujours utilisés. Deuxièmement, l'indépendance de l'innovation (évolution aléatoire dans le temps) est le point le plus testé, le plus controversé. C'est pour cette raison que SAMUELSON (1965) a introduit l'étude des martingales en finance afin de proposer une nouvelle spécification testable de l'hypothèse de rationalité des investisseurs.

2. La martingale.

LEROY (1989) explique que la marche aléatoire représente un modèle trop restrictif pour tester l'efficience des marchés. En effet, les caractéristiques de la marche aléatoire laissent peu de possibilité à celle-ci d'être générée par un modèle d'optimisation. La martingale permet justement une plus grande souplesse dans l'étude des marchés financiers tout en conservant les traits principaux du marché décrit par la marche aléatoire. Elle va permettre de se focaliser sur le fait que le cours présent est le meilleur prédicteur du cours futur en éliminant les restrictions imposées par la marche aléatoire. Notamment, il ne sera rien spécifié quant aux moments de deuxième ordre. Un processus {Xt} est une martingale si :

E(Xt+1|t) = Xt.

t est l'information disponible au temps t. Cela se traduit par la nullité en espérance de l'innovation conditionnellement à l'information t. L'innovation est alors une différence de martingale :

E(Xt+1-Xt|t) = E(t|t) = 0

Si le prix suit une martingale, aucune information n'est utilisable pour avoir une rentabilité anticipée non nulle (MANDELBROT, 1971). Le test de l'efficience des marchés va alors consister en la recherche d'une information que les investisseurs n'auraient pas intégrée dans leurs stratégies de prévision; par exemple, une information qui engendrerait une régularité dans le comportement de l'innovation. La martingale ne sera rejetée que s'il y a régularité dans le moment de premier ordre de l'innovation. Par opposition, la marche aléatoire suppose une indépendance vérifiable même en terme des moments d'ordre supérieur à un.

SAMUELSON pose les conditions sous lesquelles le modèle de martingale sera satisfaisant :

- préférences communes et constantes des agents

- probabilités communes sur les états futurs de la nature

- neutralité face au risque.

Une des critiques que LEROY (1989) adresse à la martingale est justement l'hypothèse de neutralité face au risque qu'elle nécessite. Il suppose que les agents ont plutôt une aversion pour le risque. En finance, depuis MARKOWITZ (1952), le principe de constitution d'un portefeuille par minimisation du risque pour une espérance de rentabilité donnée est la base de la majorité des théories. De plus une corrélation du moment d'ordre deux de l'innovation va engendrer un effet de grappe26 (MANDELBROT, 1963). Dans le cas d'une augmentation du risque qui perdure, les investisseurs vont réclamer une rémunération plus élevée. Sur un marché inefficient, l'investisseur qui connaîtrait cette propriété de clustering (ignorée des autres) pourrait en profiter pour battre le marché. Aujourd'hui, pour sa simplicité et sa bonne approximation de la réalité, la martingale reste un modèle important dans le paradigme probabiliste en finance.

3. La sous-martingale.

Un dernier modèle est utilisé en finance. Il s'agit de la sous-martingale qui permet de tenir compte de la rémunération minimale du risque qu'offre un actif risqué. Un processus {Xt} sera alors une sous-martingale si :

E(Xt+1|t) ≥ Xt.

t est l'information disponible au temps t. La sous-martingale est utilisée lorsqu'il est supposé qu'en espérance, l'actif risqué offre au moins le taux sans risque. L'espérance du prix futur de cet actif est alors le prix présent rémunéré au moins au taux sans risque. Ce modèle est nettement moins utilisé dans les travaux théoriques en finance.

Sur la base de ces modèles, différentes statistiques sont proposées afin de tester l'efficience des marchés. Selon leur construction, les principaux tests porteront soit sur le modèle de la martingale, soit sur celui de la marche aléatoire. Nous les exposons succinctement car là n'est pas le but de ce travail. Cependant ils sont partie intégrante du paradigme probabiliste en finance.

4. Test de la marche aléatoire.

Nous présentons ici quelques uns des principaux tests de l'hypothèse d'efficience des marchés réalisés lorsque le modèle testable de cette hypothèse est la marche aléatoire.
1   2   3   4   5   6   7   8   9   ...   31

similaire:

Thèse présentée par iconThèse présentée par
«En plus de cela, mon fils, sois averti que faire des livres est un travail sans fin et que beaucoup d’étude fatigue le corps.»

Thèse présentée par iconThèse présentée par
«I seem to have been only like a boy playing on the seashore, and diverting myself in now and then finding a smoother pebble or a...

Thèse présentée par iconTHÈse presentée a l’université D’orléans

Thèse présentée par iconThèse présentée en vue de l’obtention du

Thèse présentée par iconTHÈse presentée a l’université D’orléans

Thèse présentée par iconThèse Présentée à la Faculté de Pharmacie de Montpellier

Thèse présentée par iconThèse pour l’obtention du diplôme de Docteur en Socio-Économie de...

Thèse présentée par iconThèse présentée pour l’obtention du grade de Docteur

Thèse présentée par iconThèse présentée et soutenue publiquement en vue de l'obtention

Thèse présentée par iconThÈse présentée
«pauvres» (rendements, matériaux, fluides moteurs), avec une production centralisée pour bénéfi-cier d’économies d’échelle






Tous droits réservés. Copyright © 2016
contacts
e.20-bal.com