Evolution de la théorie de portefeuille

Les crises de ces dernières années ont montré la limite des théories de modélisation financière dont nous sommes les héritiers.

En termes de mesure, beaucoup de variables économiques et quantités suivent une distribution normale. Ce qui signifie que les valeurs observées sont distribuées de façon symétrique autours d’une moyenne, avec la majorité à proximité de la médiane et seuls certains points situés aux extrêmes. Cette distribution et l’écart entre les valeurs extrêmes définit ce que l’on appelle le Spread. Le premier à l’avoir défini est le mathématicien Carl Friedrich Gauss, d’où le nom de loi de Gauss pour ce type de distribution normale.

C’est une centaine d’années plus tard que cette loi s’est vue appliquée au monde de la finance des marchés par Louis Bachelier, considéré comme le père fondateur des mathématiques financières. C’est notamment lui qui a modélisé le prix des titres comme fonction symétrique aux taux de rendement escomptés.

Ces travaux ont ensuite été repris par Harry Markowitz qui a reçu en 1990 le prix Nobel pour sa théorie du portefeuille. Il y insiste sur le risque comme facteur déterminant tandis que ses prédécesseurs insistaient surtout sur la notion de performance.  Markowitz a ainsi introduit la notion de volatilité comme la première mesure du risque, mesurée en termes de déviation par rapport au standard. C’était ainsi les débuts des théories sur la diversification et l’optimisation du risque. La théorie du portefeuille vise ainsi à maximiser le retour sur investissement pour chaque unité de risque considérée.

La critique des modèles précédents :

Jusqu’à présent la pratique s’est contentée de compléter et raffiner ces modèles sans les remettre en question. Mais les évènements extrêmes de ces dernières années ont montré leurs limites sur certains aspects. Leur critique porte actuellement sur deux thèmes :

Tout d’abord, il existe une diversité de distributions non normales dans le monde réel. Certaines peuvent être plus ou moins symétriques ou asymétriques. D’autres avec des intensités plus ou moins hautes et des distributions plus ou moins larges, ce qui induit alors plus de probabilité d’événements extrêmes ou atypiques que dans le cadre d’une distribution normale. C’est par exemple le cas observé pour le retour sur investissement des pays en voie de développement. Donc le fait de prendre pour référence une distribution normale peut entraîner des carences pour la prise en compte du risque, puisqu’elle ne prendra pas suffisamment en compte l’incidence des cas de pertes extrêmes.

De plus, d’une perspective de la théorie de gestion de portefeuille, le risque se confond avec la volatilité, et les déviations d’un côté comme de l’autre (vers le haut ou vers le bas) sont traitées de la même façon. Or, en pratique et pour la même magnitude, les investisseurs attachent davantage d’importance aux probabilités de risques qu’aux possibilités de gains, dans le but de limiter les pertes en priorité. Les modèles devraient donc refléter cette tendance dans les calculs de volatilité.

Comment alors prendre en compte ces impératifs de façon systémique?

En premier lieu, en adaptant les modèles actuels de façon à mieux intégrer ces distributions non normales. Il faut donc dépasser les notions de médiane et de déviation standard comme paramètres de base pour y intégrer aussi les variables de dissymétrie et le coefficient de Kurtosis, ce dernier mesurant l’aplatissement ou a contrario la pointicité de la distribution d’une variable aléatoire réelle. Ce qui donnera alors à l’investisseur un vue plus précise de la réalité, qui est l’objectif final de tout modèle, qu’il soit utilisé dans les salles de marchés ou à l’usine.

Plus la courbe est haute, plus des évènements extrêmes sont susceptibles d’intervenir.

En second lieu, une nouvelle mesure de risque répond à ces nouveaux enjeux : Tandis que la théorie de Markowitz insistait beaucoup sur la notion de volatilité, on accorde aujourd’hui davantage d’importance sur la modélisation du risque de pertes avec ce qu’on exprime en mathématiques par la CVaR (Conditional Value at Risk). La CVaR examine avec plus de détails la fréquence des événements extrêmes dans la distribution, et permet d’exprimer avec suffisamment de finesse la magnitude moyenne des pertes potentielles. En d’autres termes, la CVaR exprime le potentiel de pertes dans le cadre d’événements atypiques et extrêmes.

En conclusion, l’enjeu se porte aujourd’hui davantage sur la réduction du risque. Cette tendance forme ainsi la base d’un nouveau type d’optimisation du portefeuille qui minimise le risque moyen de perte attendu. Ce qui revêt une importance particulière quand le marché accuse de fortes pertes (grosses queues des courbes de distribution). En effet, ces deux ou trois années de pertes à parfois 20 ou 30 % voire bien au-delà sont celles qui ont le plus important impact négatif sur les performances de portefeuille sur le long terme.

Le monde de la théorie financière est en ébullition actuellement, les modèles classiques n’ayant pas permis de refléter avec exactitude la réalité économique et financière. La tâche leur incombe donc de limiter les risques au mieux en raffinant et complétant les modèles sans pour autant abandonner leurs concepts fondamentaux qui continuent à être valides. Comme le dit l’adage il ne faut pas mettre tous ses œufs dans le même panier : la diversification et la gestion du risque comme principe prudentiel restent la pierre angulaire de la gestion du portefeuille. Ce qui évolue en revanche, c’est la façon de bien comprendre les différents aspects du risque et de savoir mieux les mesurer.

Written by

AltaDigm Consulting