On a vu précédemment qu’on avait essentiellement affaire à 2 mesures de la volatilité: l’une est une mesure intrinsèque au sens ou l’on fait la division d’une quantité de put par une quantité de call de façon à quantifier le « besoin » des gens de se couvrir à la baisse, l’autre est indirecte en cela qu’il est nécessaire d’inverser un modèle afin d’en déduire (par le théorème des fonctions implicites) une volatilité dite implicite (justement) à 30 jours. Or, à ce stade, on peut sérieusement se poser la question: comment ces 2 formes de volatilité s’ajustent-elles ? Eh bien, cela semble etre un processus assez compliqué puisque lorsque l’on effectue le quotient de l’une par l’autre (voir ci-contre), on obtient une fonction pratiquement constante par paliers séparés par des zones de transitions plus ou moins abruptes. Par exemple, le pic de volatilité de février 2007 (New Century, pour les nouveaux) n’a pas suffi à bouleverser le quotient des volatilités: pas de divergence, ces 2 mesures ont continué à bouger dans les memes proportions, c’est vraissemblablement ce qui a permis la poursuite de la hausse jusqu’à juillet 2007 (on rappelle qu’un VIX plus haut pénalise le ratio de Sharpe du S&P 500, ce qui mécaniquement pousse à la vente). Observons aussi le cas tout à fait inattendu du VXN (ci-dessus, tout en bas), le VIX du Nasdaq 100, qui a continué à décroite après février 2007, ce qui a produit une hausse du quotient des volatilités à l’inverse de tous les indices blue chips. C’est tellement remarquable qu’on va en parler en long et en large …
Pour bien se rendre compte de l’aspect quantitatif de ce genre de ratios, et donc de leur capacité à mesurer avec précision des mouvements dans le consensus des opérateurs entre les marchés au comptant et les marchés à terme, il est nécessaire d’avoir bien en tète le graphique précédent.
En février 2007, la première faillite subprime mortgage, passée complètement inaperçue dans la presse généraliste et sur-payée, ébranle quantitativement le consensus sur le S&P 500: on voit que le quotient de l’indice sur le VIX décroit strictement de janvier à avril. Qu’en est-il des valeurs technologiques et de son indice représentatif élargi ? La réponse se trouve ci-contre: non seulement New Century n’a pas détérioré le consensus sur Google et ses petits frères, mais il semble meme avoir augmenté … Il faut attendre aout 2007 pour commencer à voir une détérioration sur ce consensus pro-technos, détérioration qui touche d’ailleurs l’ensemble du marché US. Jusqu’à aout, le quotient des volatilités oscille autour du meme niveau (voir en haut, autour de 20). De façon complètement symétrique, vous observez là encore que le plus-bas des prix (et les prix ne sont pas toujours efficients!) de mars 2009 ne signifie pas grand-chose, en particulier, ce plus-bas n’est pas confirmé par le quotient de l’indice divisé par sa volatilité implicite puisque ce quotient augmente entre novembre 2008 et mars 2009 (bien plus nettement que celui du S&P 500 et du VIX). Le marché aime le NDX, et ce, de New York à Chicago! Par la suite, le « niveau de confiance » s’est mis à grimper plus rapidement que pour les blue chips (je ne vous montre pas le graphique du Dow Jones, il ressemble à celui du S&P 500). Le Nasdaq 100 est vraiment le pire choix pour un bear dans l’ame …
Du point de vue strictement mathématique, on peut toujours faire l’objection que l’on divise des carottes par des navets, en ceci que le NDX est un prix en dollars et le VXN un pourcentage en valeur absolue. Les diviser n’est pas rigoureusement fondé, meme si à la limite, le VIX peut etre interprété comme un nombre de points en « tordant un peu les équations ». Par contre, on peut encore, comme on l’a fait pour le S&P 500 et la dette à 3 mois, comparer rigoureusement les rendements fixes à 2 ans (parce que le marché aime le NDX) avec le VXN. Là encore, cette mesure du flight to quality ne montre aucune dégradation après novembre 2008, et relève meme la tete depuis quelques jours, signe possible d’amélioration. Toutefois, il faut rester très prudent quant à ce signe parce que le 2 ans fait partie des Treasuries devant lesquels les Chinois se font désormais tirer l’oreille. Il peut donc y avoir de la vente (donc de la hausse des rendements) un peu artificielle de ce coté-là. Pas d’emballement donc, et de toutes façons, cette hausse du quotient des rendements est tellement minime qu’il serait vraiment hasardeux de vouloir lui donner une signification précise à ce niveau.
On voit donc à quel point ce genre de techniques quantitatives assez simples permettent de faire la différence de façon assez précise entre le consensus sur 2 segments de marché assez différents (les blue chips et les technos). Maintenant, on pourrait (on devrait) prendre en compte les volumes de transactions de façon à obtenir une « fonction de contraste » (je mets de guillemets parce que cette terminologie a une signification très précise dans l’analyse en composantes indépendantes, qui n’est pas celle d’ici) alternative à laquelle comparer celle obtenue en divisant l’indice par le ratio put/call. Dans ce cas, on multiplierait les prix par les volumes de manière à obtenir des niveaux de prix pondérés par leur masse exprimée en dollars.