Optimisation robuste en économie et finance

Thomas Sargent - Nobel Prize 2011

Le contexte post-crise financière

Suie à la crise financière et systémique de 2008 et ses fortes répliques de 2011 qui se sont manifestées par une défiance vis-à-vis des dettes souveraines européennes, on constate que:
·         l’insatisfaction d’un investisseur qui subit  une perte d’amplitude D est plus élevée que sa satisfaction à percevoir un gain de la même amplitude D (voir la note de Simon Savage de GLG Partners « Skill, luck and human frailty » GLG Views, July 2011),
·         des pertes de confiance des agents économiques en leur modèle de décision peuvent apparaitre subitement.
Dans un papier récent, « Robust Control in a Nonlinear DSGE[1] model » (février 2012), Rhys Bidder (Federal Reserve Bank of San Francisco) et Matthew Smith (Federal Reserve Board of Governors) soulignent le fait qu’après une longue période de stabilité, pendant laquelle une certaine confiance dans les modèles économiques et statistiques s’était instaurée, la crise financière a brutalement provoqué une situation laissant place à une vraie incertitude (au sens de Frank Knight[2]), à une véritable méfiance voire même à un certain pessimisme quant à la capacité des modèles à capturer la complexité en économie et en finance.

Formalisation des approches robustes

Il y au donc nécessité structurelle à se tourner vers des approches plus robustes pour mieux expliquer le marché et réduire la fragilité des approches quantitatives liées notamment aux composantes « data-fitting » apparaissant dans le processus de calibration des modèles (hidden in-sampling calibration). 
Deux approches sont possibles : le mélange de modèles (risk models pooling) ou la recherche d’une distribution worst-case qui, d’une certaine manière, fait intervenir un nouveau joueur dans la partie : l’incertain. Les deux approches sont liées par une relation de dualité.

L’approche pire-cas : un outil issu de la commande robuste

Comme indiqué par Sargent (prix Nobel 2011) et Hansen dans leur papier de 2001 «Robust Control and Model Uncertainty », la commande robuste, un paradigme employé avec efficacité dans d’autres sciences de l’ingénieur (automatique, aéronautique, recherche opérationnelle, design de structures mécaniques) depuis les années 50[3], permet de considérer le cas d’un agent économique guidé par un modèle de référence vis-à-vis duquel sa confiance est variable dans le temps. Le modèle réel inconnu peut être vu comme ayant subi des distorsions (ou perturbations) non négligeables (apparition de phénomènes non gaussiens non prévisibles). Malgré ses doutes, l’agent économique cherche à agir et définir une politique capable de satisfaire un niveau de bien-être suffisant quelque soit le modèle « alternatif » (ou perturbé)  qui régit réellement la nature et se trouvant à distance finie de son modèle de référence.
La distance des modèles perturbés au modèle de référence est contrôlée par l’entropie relative de Kullback-Leibler. Il s’agit alors de définir la meilleure politique d’investissement vis-à-vis de la situation pire-cas  parmi toutes les distributions admissibles.

Le problème de commande robuste obtenu n’est pas toujours accessible au calcul. Dans un papier publié en 2003 avec Laurent Elghaoui (Berkeley University) et Maksim Oks (MSCI Barra), nous introduisions le même type de contrainte permettant de restreindre l’ensemble des distributions admissibles à des distributions continues. Cette approche permettait d’écarter les distributions pire-cas discrètes obtenues sans contraindre l’ensemble d’incertitude. L’approche initiale présentée par Karlin et Shapley en 1953[4] conduit effectivement à des distributions discrètes extrêmes et très conservatrices en régime normal. L’article « Theory and Applications of Robust Optimization » de Dimitri Bertsimas (MIT), David Brown (Duke University) et Constantine Caramanis (University of Texas) publié en 2011 dans SIAM Review réalise la synthèse des approches actuelles en optimisation robuste.
Nous avançons actuellement sur la mise en œuvre de deux axes de recherche :
  •    introduction de mesures (incertaines) d’asymétrie dans la définition de l’ensemble des distributions admissibles (moment d’ordre 3),
  •          définition d’une distance à la normalité dynamique permettant de capturer la défiance croissante vis-à-vis des modèles en période de stress jusqu’à atteindre des changements de phase instantanés (cas des distributions discrètes).

Le pooling de modèles de risque

Une approche « cousine » de la précédente, à laquelle la méthode RaisePartner ASEMA[5] appartiennent, consiste à rechercher un modèle de décision s’exprimant directement comme combinaison linéaire de modèles de bases. Le poids donné à chaque modèle peut s’interpréter comme un score. Deux approches sont possibles pour déterminer les scores.
  •      Maximisation d’une fonction log-vraisemblance – c’est l’approche prise par John Geweke et Gianni Amisano dans leur papier « Optimal Prediction Pools » (CQER Working Paper 09-05 – Federal Reserve Bank of Atlanta, 2009[6])
  •        Détermination des poids en fonction d’une efficacité réalisée telle qu’une mesure de distance entre les risques ex-ante et ex-post mesurés par chaque modèle.



[1] Dynamic Stochastic General Equilibrium
[2] I. Drechsler. Uncertainty, Time-Varying Fear, and Asset Prices, Journal of Finance, forthcoming, 2012.
[3] G. Dantzig. Linear programming under uncertainty. Management Science, 1(3-4):197-206, 1955
[4] S. Karlin and L.S. Shapley. Geometry of moment spaces. Memoirs Amer. Math. Soc.,
12, 1953.
[5] Adaptive Scoring for Efficient Matrix Aggregation

Comments

Popular Posts