La modélisation mathématique des marchés financiers est-elle en train de franchir une étape significative ? C’est ce que l’on pourrait penser en lisant les publications récentes émanant de certains chercheurs travaillant sur les adaptive beliefs systems (ou encore les adaptive rational equilibrium dynamics). Les systèmes étudiés couvrent les marchés actions ainsi que le FOREX (ce dernier étant parfois considéré plus efficient, bien que l’unanimité ne s’accorde pas sur ce point).
Un peu de chronologie: les premiers travaux de modélisation financière remontent à Louis Bachelier et de Jules Regnault (voir des excellents surveys là-dessus ici), on y considère que les intervenants sur le marché suivent une « marche au hasard ». Ceci a d’importantes conséquences, notamment dans la démonstration rigoureuse de certains théorèmes mathématiques grace à la structure bien particulière du processus de Wiener. Après la Seconde Guerre Mondiale, l’école de Chicago, autour de Milton Friedman et Eugène Fama entend mettre en place une théorie rigoureuse des marchés financiers sur la base de la Rational Expectations Hypothesis, elle-meme très liée à la Efficient Markets Hypothesis. Cette hypothèse (il en existe des formes plus ou moins fortes) exprime d’une certaine facon que les agents ont une connaissance parfaite des informations disponibles et les intègrent instantanément dans les cours de Bourse; les prix des titres reflètent alors la totalité des connaissances utiles (ils sont à un niveau dit « fondamental ») et ne subissent que des oscillations mineures, reflétées par exemple par du bruit Gaussien.
Ceci peut paraitre un peu ingénu au vu des succès de Warren Buffett, de George Soros ou à l’opposé des ravages de la « bulle internet », qui sont des cas évidents qui illustrent un comportement soit massivement irrationnel, soit très avisé dans la mise à profit d’un certain nombre de valeurs durablement sous-cotées, soit finalement d’une théorisation des erreurs humaines, la théorie de la réflexivité. Une synthèse académique est disponible sur ces trois exemples. Toutefois, il faut se souvenir que la célèbre formule de Black-Sholes pour le pricing des produits dérivés repose sur la théorie des marchés efficients; on pourra me répondre que Myron Sholes fut impliqué dans le Krach du hedge fund LTCM …
De nouveaux économistes ont donc décidé (à la suite par exemple de Robert Shiller), d’incorporer une composante de « psychologie des marchés » afin de remettre en accord la théorie avec la réalité; rappelons que Friedman affirma en 1953 que les opérateurs irrationnels seraient ruinés par les autres qui joueraient systématiquement contre eux, ce qui ferait « relaxer » le marché vers son niveau fondamental exponentiellement vite. Insistons sur le fait qu’un marché rationnel est homogène: meme s’il ne l’est pas initialement, les agents non rationnels sont ruinés rapidement d’après l’affirmation de Friedman.
C’est donc ce point précis que les créateurs de la Heterogeneous Market Hypothesis ont choisi de contester en introduisant un modèle incluant le marché efficient au sens de Fama comme cas particulier, mais tenant compte par ailleurs des traders « fondamentaux », « chartistes », suiveurs, contrariens, biaisés … Une excellente référence en libre accès est ici. Bien entendu, le prix à payer pour une consistance accrue avec la réalité des marchés est la mise en oeuvre d’une équation différentielle stochastique plus compliquée; néanmoins, il semble que l’on soit encore à des niveaux de complexité mathématiquement raisonnables. Retenons déjà que ces modèles incluent naturellement des bulles spéculatives, et que l’effet de mémoire des intervenants se révèle surprenamment un effet déstabilisant de la dynamique …
On peut toutefois regretter que ces modèles se basent exclusivement sur des équations différentielles (meme stochastiques), ce qui signifie en particulier que les titres boursiers évoluent indépendamment les uns des autres … Ils n’incluent pas d’effet de couplage; par exemple il est rare d’avoir une valeur appartenant à un secteur économique dont la valorisation change brutalement sans qu’un effet (meme atténué) soit visible sur le secteur tout entier. Peut-etre ceci nous emmènerait trop loin en termes de complexité dans des systèmes différentiels stochastiques!
Laurent, vous m’impressionez. Un jour, je prendrai le temps de me plonger dans le domaine dont vous parlez.
Pour l’instant, cela relève pour moi du domaine de la chiromancie, mais je reconnais que je suis béotien en la matière !
L’étude des corrélations entre les performances des produits financiers existe depuis de nombreuses années mais étaient le fait de quelques rares spécialistes spécialisé dans le risk management. D’abord réservé à quelques grandes banques car nécessitant de très puissants moyens de calculs, ils ont évolué avec l’informatique et sont aujourd’hui utilisés « presque » en temps réel dans les salles par les acteurs qui en ont les moyens souvent avec des solution de type grid computing utilisant des centaines de serveurs pour les calculs. Par exemple, une grande banque française a vu sa puissance de calcul en salle multiplié par plus de 5000 depuis l’an 2000. Cela permet aussi des possibilités de développer des modéles beaucoup plus complexes. Pour reprendre une citation d’un prix Nobel d’économie, la formule de Black-Scholes a été vérifié pedant 5 minutes sur les marchés ces 20 dernières années. Les hypothèses sur lesquelles elle repose ne sont en fait jamais réalisées.
Il y a une énorme littérature sur la modélisation de différents risques et portefeuille.
http://www.gloriamundi.org/
http://www.institut-entreprise.fr/fileadmin/Docs_PDF/travaux_reflexions/Recherche_et_Innovation/BNPcas.pdf
La crise asiatique et la quasi faillite de LTCM ont aussi modifié la réglementation financière avec l’introduction des normes Bâle 2 et des nouvelles normes comptables.
jean-Philippe , tu me rassures 😉
je me trouvais tout d’un coup totalement ignare
au fait si vous rencontrez panama, dites lui bonjour de ma part
jean-Philippe , tu me rassures 😉
je me trouvais tout d’un coup totalement ignare
au fait si vous rencontrez panama, dites lui bonjour de ma part
@ Elisabeth : ouf, je ne suis pas seul au monde, Merci à toi.
Au sujet de Panama, je transmets, il n’est pas très loin de moi…
🙂
et si Panama passe à Toulouse , dis lui que je travaille à 100 metres de l’aéroport ,
d’ailleurs le gag, c’est que comme le deux batiments se confondent un peu, certains nous prennent pour l’aéroport
Zut passé par Blagnac la semaine dernière ! Next time !
yes ,sans hesitez !!!
yes ,sans hesitez !!!
« Everybody on the Street is investing and looking to improve their latency. If we are 5 milliseconds quicker than Lehman Brothers, that is great. We do not actually care if it takes 20 milliseconds to get to market, providing we are quicker than our competitors, » …
Last year, BNP devoted significant resources to building its equity derivatives flow business in order to strengthen its position in the market. This included adding more than 200 people to the division.
« We are a very large and, you might say, quite advanced derivatives organization. That in itself necessitates the need for very complex models. These models then require massive amounts of computing power, » says Mullock. « A dramatic trend over the past 18 months has been the expansion in calculation power that we need. We have many thousands of blade servers doing calculations for our models, which has put quite a lot of pressure on our datacenters. »
BNP currently has two major datacenters, which are managed by IBM and located in London and Paris, housing 2,500 and 1,500 blades, respectively. The bank also has a datacenter on site at its Marylebone headquarters, housing 500 blades. BNP is setting up an additional datacenter in Paris this summer, which will initially house 500 blades before building up its computational strength to 2,500 blades by September.
The importance of latency is intertwined with a marketplace that is becoming increasingly driven by automated processes and algorithmic trading technology. « We need faster servers for calculating the pricing models. We need bigger, faster network connectivity to the outside world. It had an impact on the market data, the historic prices, and the tick data we need to store and access, » …
BNP’s investment in systems that manage automated equity trading technology enabled the bank to withstand the dramatic increase in trading volumes that resulted from the global stock markets’ drop in late February. Euronext and the London Stock Exchange experienced stalling in their trade processing as a result of the heavy trading volumes. « We coped absolutely fine, » Mullock says. « We have had several significant projects running through 2006 to cope with automated trading, particularly in the equities world. The volumes we saw recently did not stress our systems at all. » …
Mullock says, however, that the bank’s reliance upon algorithmic trading and electronic transaction processes does open it up to increased financial risks. « If the technology does go wrong, it can happen in a very efficient way, which can quickly have a big impact if, for example, we are behind the market and we are continually trying to fill an order that does not exist. »
http://www.watersonline.com/public/showPage.html?page=457144
« De nouveaux économistes ont donc décidé […] d’incorporer une composante de « psychologie des marchés » afin de remettre en accord la théorie avec la réalité ». Les marchés n’ont jamais été autant « animaux » qu’en ce moment (la volatilité le prouve). Il est temps de se tourner vers de nouveaux outils qui retracent le comportement des investisseurs.
[…] La modélisation mathématique des marchés financiers est-elle en train de franchir une étape significative ? C’est ce que l’on pourrait penser en lisant les publications récentes…nn Source : Le blog finance […]