Dans ces 2 articles, nous allons essayer de voir jusqu’à quel point des méthodes mathématiques « aveugles » (c’est-à-dire non carrossées particulièrement pour traiter des signaux boursiers) pourraient etre capables de délivrer des prévisions réalistes à court terme. Ci-contre, vous voyez la prévision sur le CAC 40 à 5 jours obtenue la semaine dernière (en trait rouge) et basée sur 256 jours de cotations observées. La méthode de traitement est construite autour d’un detrending effectué dans une classe de fonctions dites Lipschitz-continues (avec des « coins », en gros) suivi d’une décomposition/extrapolation en ondelettes discrètes. On peut dire que, pratiquement, on avait les bonnes valeurs à disposition. Voyons un peu comment s’articule un tel algorithme.
Le detrending « made in Stanford« , meme s’il doit etre un peu modifié, permet de récupérer via un programme de minimisation convexe, quelque chose qui ressemble diablement à une décomposition elliottiste des cotations: voir ci-contre. En particulier, et au contraire du detrending polynomial que j’ai utilisé pendant plusieurs mois, nous obtenons ainsi une tendance avec des « coins ». Et c’est très bien, parce que les gens qui font du Elliott « à la main » tracent toujours des fonctions affines par morceaux, et à la jonction, ils mettent des « coins ». Ceci est alors considéré comme un squelette à partir duquel on étudie les fluctuations journalières.
Les fluctuations sont étudiées au moyen d’une décomposition en ondelettes discrètes. Sans rentrer dans les détails ennuyeux, disons que l’avantage d’un tel algorithme par rapport à la transformée de Fourier discrète est que l’on s’affranchit de l’hypothèse de fluctuations périodiques. Alors attention, je ne dis pas que l’hypothèse de périodicité est toujours déconnante (par exemple, en 2004/2005, vous pouvez trouver des fluctus périodiques sans difficultés), mais dans les moments troublés que nous traversons, cette hypothèse est un peu restrictive.
Cette fluctuation peut quand meme etre étudiée dans le plan « temps/périodes » au moyen d’une analyse en ondelettes continues (en particulier celles de Jean Morlet, qui représentent le compromis optimal dans la localisation temps-fréquences). Ce qu’il faut retenir du dessin ci-contre (les abscisses représentent le temps en jours, les ordonnées, les périodes instantanées apparaissant dans le signal), c’est que la fluctuation contient essentiellement des cycles oscillants de périodes entre 100 et 150 jours: comme un an de cotations fait 256 jours, vous avez des périodes de 6 mois, c’est-à-dire un trimestre à la hausse suivi d’un autre à la baisse.
Comme toujours lorsqu’on traite un signal, on est obliger d’en jeter une partie à la poubelle, parce que cette partie est de mauvaise qualité. On espère alors pouvoir établir a posteriori que cette partie est négligeable en cela qu’elle ne contient pas (ou très peu d’informations utiles). Eh bien, la bonne surprise, c’est que cet algorithme génère un « reste » qui est très proche d’un bruit blanc complètement décorrélé. La répartition probabiliste est visible ci-contre, à droite. Ceci permet de construire un intervalle de confiance autour de la prévision (il est tracé en vert dans le premier graphique de cet article).