Jusqu’ou extrapoler les indices ?

Grayscaldemath A la suite d’une discussion animée avec (entre autres) le chevalier Bayard, qui comme chacun sait (sauf peut-etre quelques gangs du 9-2 qui ont séché l’école) était sans peur et sans reproche, j’ai eu l’idée d’écrire une note pour expliquer un peu ce que nous disent les théorèmes récents du traitement du signal sur notre capacité à extrapoler des fluctuations boursières. En fait, c’est assez facile de se rendre compte qu’une bonne extrapolation réalise un compromis entre plusieurs choses partiellement contradictoires: une longue durée d’observation (ceci a à voir avec l’idée de l’ergodicité, c’est-à-dire que l’on espère qu’observer pendant longtemps une variable aléatoire nous renseigne autant que d’observer plusieurs de ses réalisations — par exemple, c’est vrai pour le tirage du pile ou face), un contenu fréquentiel limité (c’est en général en contradiction avec le point précédent, plus on observe longtemps, plus on a de chances d’avoir des phénomènes variés) et un bon rapport signal sur bruit (peu de bruit blanc dans les cotations). Sur ce dernier point, on peut faire quelque chose: à savoir couper impitoyablement les oscillations de faible énergie, on appelle ca le hard thresholding.

Seulement voila, on se rend déja compte que pour avoir une longue durée d’observation, qui permet de faire du oversampling, ce qui est bon pour le calcul de la transformée de Fourier, il faut déja réussir à trouver une bonne tendance polynomiale. Et si l’intervalle de mesures est long, celle-ci sera de degré élevé; ce n’est pas très facile au-dela de 1200 jours (5 ans environ). Sur plus de 2 ans, on aura surement quelques corrections passagères qui introduiront des hautes fréquences (qui traduisent le fait qu’on baisse plus vite qu’on ne monte) et conséquemment qui élargiront la bande passante du signal à extrapoler … Il faut néanmoins arriver à faire un compromis entre tout cela: et on y arrive après quelques essais, comme par exemple le CAC 40 sur 500 jours avec une tendance de degré 2, ou l’EPRA sur 630 jours avec une tendance de degré 3.

Par contre, il pourrait etre souhaitable d’aller plus loin vers le quantitatif en essayant de trouver un critère mettant en jeu la durée d’observations D, la largeur de bande B et la durée possible d’extrapolation N. Eh bien, cela existe! Dans un article de 1989, le statisticien Dave Donoho de Stanford Univ. montre assez élégamment qu’il suffit que l’on vérifie NB<(N+D) pour que le problème de l’extrapolation ait une unique solution (tout est très bien expliqué dans le paragraphe 4 de l’article; ca vaut le coup de le lire en détail pour ceux qui ont le temps). En gros, les fluctuations du CAC sur 500 jours avec 10 fréquences (ca fait une largeur de bande de 21, 2*10+la fréquence nulle) autorisent une extrapolation maxi de 25 jours environ. Attention, au-dela, les algos numériques peuvent encore donner une solution stable, mais celle-ci n’a plus de fondement théorique solide (mea culpa!).

Je suis en train de réfléchir sur une extension de ces idées aux extrapolations en ondelettes; pour l’instant, je sèche. Mais heureusement, sur internet, on trouve des choses pour se distraire

(3 commentaires)

  1. bon, j’espere que je vais pas declencher une grosse polemique comme la derniere fois… le truc, c’est vraiment que peu importe le fondement du systeme, tant qu’il donne de bons resultats ! par contre la je me rends compte que je suis vraiment en retard d’un train cote signal i.e. j’ai pas trop compris le contenu du post… bref, a moi de me mettre a niveau !

Les commentaires sont fermés.