Accueil 5 Recherche & Transferts 5 Mathématiques, modélisation et finance, un mariage de raison – par Jean-David Fermanian, professeur de finance à l’ENSAE ParisTech

Mathématiques, modélisation et finance, un mariage de raison – par Jean-David Fermanian, professeur de finance à l’ENSAE ParisTech

En quelques décennies, le monde de la finance (banques, assurances, sociétés de gestion, courtiers, etc.)…
Publié le 3 février 2012
Partager l'article avec votre réseau

En quelques décennies, le monde de la finance (banques, assurances, sociétés de gestion, courtiers, etc.) a effectué sa révolution technologique. De secteurs relativement cloisonnés et protégés, offrant des palettes réduites de produits simples et banalisés, ils sont entrés aujourd’hui dans l’ère de la concurrence mondiale, d’une diversité infinie de produits et de clauses, capables ainsi de s’adapter aux souhaits de chaque client. Par le biais des produits dérivés, les montants brassés par la finance de marché sont désormais sans commune mesure avec ce qu’ils étaient dans les années 70. Parmi les principaux vecteurs de cette évolution historique, on peut notamment citer le très fort développement des marchés financiers, la « financiarisation » de l’économie, l’informatisation des outils et des process, l’émergence d’une gestion des risques moderne et crédible, et enfin la sophistication des outils, modèles et méthodes. Je me pencherai ici sur ce dernier point, appréhendé sous un angle historique et via le prisme des mathématiques.

La finance a toujours eu besoin de calculs mathématiques. L’illustration la plus simple et traditionnelle en est le calcul actuariel, utilisé pour évaluer le rendement d’un placement par exemple. Au sens strict, les modèles y sont réduits à leur plus simple expression. La situation change dramatiquement avec l’émergence des produits dérivés dans les années 70 (options, swaps), puis des produits structurés un peu plus tard. A partir de ce moment-là, il n’est plus possible d’évaluer le prix et le risque des produits par des calculs « de coin de table », du fait des non-linéarités des flux futurs (incertains), des combinaisons complexes de diverses variables financières, etc. Un événement clé fut l’apparition du modèle de Black-Scholes-Merton (1973), qui fournit un cadre conceptuel, des outils probabilistes, complexes pour un béotien mais compréhensibles pour un ingénieur bien formé, et enfin une formule pour évaluer les options les plus courantes. Le calcul stochastique et les changements de mesures dans les espaces probabilisés étaient consacrés dans les salles de marché. Au-delà de cette formule, qui a rendu ses auteurs célèbres et leur valut le prix Nobel, les marchés financiers pouvaient désormais se raccrocher à un cadre conceptuel rigoureux et général, des hypothèses et des résultats admis par le plus grand nombre.

De nombreuses variantes et extensions de ce modèle ont été développées ensuite, pour tenter de prendre en compte les caractéristiques sans cesses renouvelées des produits financiers. En effet, l’imagination des banquiers n’ayant pas de limites, stimulés en cela par la concurrence entre établissements et les perspectives de rémunération alléchantes, les années 90 et le début des années 2000 ont été marquées par une innovation financière et une créativité impressionnantes. Une forme de « scientisme » semble alors triompher, sûr de ses outils, de ses modèles et de ses hypothèses : efficience des marchés, comportement rationnel des agents, modèles probabilistes en temps continu, où les rendements des sous-jacents suivent des mouvements browniens, etc.

Du côté de la gestion des risques également, on a observé ce même phénomène de confiance excessive. La Value-At-Risk (au niveau x%, elle désigne la perte maximale dépassée seulement dans x% des cas) était devenue la mesure de risque de référence, incontournable depuis qu’elle a été adoptée par le régulateur en 1996, alors que ses défauts étaient bien connus dans la littérature. Dans la même veine, les modèles de capital économique, véritables « usines à gaz » pour les systèmes informatiques, ont nécessité de gros efforts de la part des banques, pour des résultats mitigés, loin de faire l’unanimité. Par ailleurs, la modélisation stochastique/économétrique, plus proche de la statistique, plus attentive aux dynamiques réelles suivies par les variables financières (ou non) sous-jacentes, s’est fortement développée sur la même période : recherche de stratégies quantitatives (hedge funds, prop-trading des banques, gestion quantitative au sens large), modèles de comportements des agents (scoring, gestion actif-passif), produits financiers basés sur les cours des matières premières, sur la température, le CO2, etc. Ces problématiques nécessitent d’aller au-delà de spécifications ad hoc choisies pour la valorisation de produits dérivés, plus pour la facilité de mener des calculs explicites que pour leur caractère réaliste.

La crise financière que nous traversons depuis 2007 a remis certaines vérités à leur place. Elle a démarré là où les excès précédents ont peut-être été les plus manifestes : les produits structurés complexes, notamment de crédit. En ce domaine, les ingénieurs financiers ont conçu des modèles trop simplistes, alors que les flux financiers associés y étaient très complexes, excessivement sensibles aux risques systémiques et difficiles à calibrer/mesurer à cause de la jeunesse du marché des dérivés de crédit et de sa liquidité toute relative. La crise financière a engendré des débats sur la place jugée excessive des mathématiques dans la finance moderne, essentiellement la finance de marché. Au-delà des polémiques, un consensus semble néanmoins avoir émergé : la crise provient essentiellement des dysfonctionnements globaux du marché, de la faiblesse de la régulation, d’une politique monétaire rétrospectivement inadaptée, de politiques d’endettement laxistes de la part des agents économiques, enfin de l’âpreté au gain de tous, investisseurs comme banquiers. Les défaillances de certains modèles mathématiques dans certaines conditions de marché ne sont finalement qu’une dimension de plus, dans ce bouleversement économique majeur démarré il y a plus de quatre ans et dont on ne voit hélas pas encore le terme.

Ce bref panorama historique s’est focalisé sur la banque d’investissement et les marchés financiers. Il reste, dans une moindre mesure, pertinent pour analyser les autres branches de la finance, qui ont toutes souffert de la crise actuelle. Par exemple, les assureurs s’inspirent aujourd’hui en large partie des outils et des modèles développés par les banques. La nouvelle réglementation Solvency 2 ressemble fortement dans la forme et l’esprit à ce que fut Bâle 2 pour les grandes banques internationales il y a 10 ans. Les produits d’assurance, à l’image des variables annuities, mélangent bien souvent des risques assuranciels classiques (mortalité, par exemple) avec des variables purement financières (actions, taux, change), nécessitant une modélisation jointe complexe et sur un très long horizon temporel. A première vue, la banque de détail semble résister à tous ces bouleversements et à la surenchère technique. En fait, via les produits structurés (action et taux essentiellement) vendus dans le réseau, la sophistication des produits et des risques peut se retrouver facilement dans les portefeuilles des petits porteurs, même s’ils n’en ont que très partiellement conscience.

Bref, les mathématiques sont bel et bien présentes dans l’univers de la finance. Même si la crise semble avoir signé l’arrêt de mort de certaines classes de produits particulièrement complexes et opaques, notre sentiment est que la technicité de la modélisation et des approches quantitatives ne peuvent que s’accroître à l’avenir. En effet, la crise a révélé les faiblesses de la mesure et des pilotages des risques, autant en front-office qu’au sein des départements chargés de contrôler ces risques, des régulateurs ou des agences de notations. Les ingénieurs financiers en sont conscients et œuvrent pour améliorer cette situation. Par exemple, le risque de contrepartie est désormais évalué et géré pour chaque transaction. Il constitue une composante de la valorisation, facturée au client, alors qu’il était bien souvent négligé avant la crise. Ainsi, le moindre dérivé classique, une option d’achat sur indice boursier par exemple, devient potentiellement un dérivé complexe multi sous-jacent, pour lequel il faudrait en théorie modéliser simultanément le risque action et le défaut de la contrepartie.

En conclusion, l’industrie financière aura toujours besoin d’esprits scientifiques bien formés aux techniques mathématiques, à la modélisation et à l’informatique, même si un creux conjoncturel peut être observé sur le marché du travail. Il s’agit en effet d’une évolution historique irréversible, même si les régulateurs décident de sacrifier le pan le plus récent et le plus sophistiqué de la finance, pour payer les excès et les défaillances de tous, eux y compris.

Partager l'article avec votre réseau
Loading...