Optimisation robuste en économie et finance
Thomas Sargent - Nobel Prize 2011 |
Le contexte
post-crise financière
Suie à la crise financière et systémique de 2008 et ses
fortes répliques de 2011 qui se sont manifestées par une défiance vis-à-vis des
dettes souveraines européennes, on constate que:
·
l’insatisfaction d’un investisseur qui subit une perte d’amplitude D est plus élevée que sa satisfaction
à percevoir un gain de la même amplitude D
(voir la note de Simon Savage de GLG Partners « Skill, luck and human
frailty » GLG Views, July 2011),
·
des pertes de confiance des agents économiques
en leur modèle de décision peuvent apparaitre subitement.
Dans un papier récent,
« Robust Control in a Nonlinear DSGE[1]
model » (février 2012), Rhys Bidder (Federal Reserve Bank of San
Francisco) et Matthew Smith (Federal Reserve Board of Governors) soulignent le
fait qu’après une longue période de stabilité, pendant laquelle une certaine
confiance dans les modèles économiques et statistiques s’était instaurée, la
crise financière a brutalement provoqué une situation laissant place à une
vraie incertitude (au sens de Frank Knight[2]),
à une véritable méfiance voire même à un certain pessimisme quant à la capacité
des modèles à capturer la complexité en économie et en finance.
Formalisation des approches robustes
Il y au donc nécessité
structurelle à se tourner vers des approches plus robustes pour mieux expliquer
le marché et réduire la fragilité des approches quantitatives liées notamment
aux composantes « data-fitting » apparaissant dans le processus de
calibration des modèles (hidden in-sampling calibration).
Deux approches sont
possibles : le mélange de modèles (risk models pooling) ou la recherche
d’une distribution worst-case qui, d’une certaine manière, fait intervenir un
nouveau joueur dans la partie : l’incertain. Les deux approches sont
liées par une relation de dualité.
L’approche pire-cas : un
outil issu de la commande robuste
Comme indiqué par Sargent (prix
Nobel 2011) et Hansen dans leur papier de 2001 «Robust Control and Model
Uncertainty », la commande robuste, un paradigme employé avec efficacité
dans d’autres sciences de l’ingénieur (automatique, aéronautique, recherche
opérationnelle, design de structures mécaniques) depuis les années 50[3],
permet de considérer le cas d’un agent économique guidé par un modèle de
référence vis-à-vis duquel sa confiance est variable dans le temps. Le modèle
réel inconnu peut être vu comme ayant subi des distorsions (ou perturbations)
non négligeables (apparition de phénomènes non gaussiens non prévisibles).
Malgré ses doutes, l’agent économique cherche à agir et définir une politique
capable de satisfaire un niveau de bien-être suffisant quelque soit le modèle
« alternatif » (ou perturbé)
qui régit réellement la nature et se trouvant à distance finie de son
modèle de référence.
La distance des modèles perturbés au modèle de référence est contrôlée par l’entropie
relative de Kullback-Leibler. Il s’agit alors de
définir la meilleure politique d’investissement vis-à-vis de la situation
pire-cas parmi toutes les distributions admissibles.
Le problème de commande
robuste obtenu n’est pas toujours accessible au calcul. Dans un papier publié
en 2003 avec Laurent Elghaoui (Berkeley University) et Maksim Oks (MSCI Barra),
nous introduisions le même type de contrainte permettant de restreindre
l’ensemble des distributions admissibles à des distributions continues. Cette
approche permettait d’écarter les distributions pire-cas discrètes obtenues
sans contraindre l’ensemble d’incertitude. L’approche initiale présentée par
Karlin et Shapley en 1953[4]
conduit effectivement à des distributions discrètes extrêmes et très
conservatrices en régime normal. L’article « Theory and Applications of
Robust Optimization » de Dimitri Bertsimas (MIT), David Brown (Duke
University) et Constantine Caramanis (University of Texas) publié en 2011 dans
SIAM Review réalise la synthèse des approches actuelles en optimisation
robuste.
Nous avançons
actuellement sur la mise en œuvre de deux axes de recherche :
- introduction de mesures (incertaines) d’asymétrie dans la définition de l’ensemble des distributions admissibles (moment d’ordre 3),
- définition d’une distance à la normalité dynamique permettant de capturer la défiance croissante vis-à-vis des modèles en période de stress jusqu’à atteindre des changements de phase instantanés (cas des distributions discrètes).
Le pooling de modèles de
risque
Une approche
« cousine » de la précédente, à laquelle la méthode RaisePartner ASEMA[5]
appartiennent, consiste à rechercher un modèle de décision s’exprimant
directement comme combinaison linéaire de modèles de bases. Le poids donné à
chaque modèle peut s’interpréter comme un score. Deux approches sont possibles
pour déterminer les scores.
- Maximisation d’une fonction log-vraisemblance – c’est l’approche prise par John Geweke et Gianni Amisano dans leur papier « Optimal Prediction Pools » (CQER Working Paper 09-05 – Federal Reserve Bank of Atlanta, 2009[6])
- Détermination des poids en fonction d’une efficacité réalisée telle qu’une mesure de distance entre les risques ex-ante et ex-post mesurés par chaque modèle.
[1] Dynamic Stochastic General
Equilibrium
[2] I. Drechsler. Uncertainty, Time-Varying Fear, and Asset
Prices, Journal of Finance, forthcoming, 2012.
[3] G. Dantzig. Linear programming under uncertainty.
Management Science, 1(3-4):197-206, 1955
[4] S. Karlin and L.S. Shapley. Geometry of moment spaces. Memoirs Amer.
Math. Soc.,
12,
1953.
[5] Adaptive Scoring for Efficient
Matrix Aggregation
Comments