M.K. : Pour commencer, que pensez vous de la responsabilité des mathématiques et en particulier du modèle brownien dans la crise financière et de l’ampleur de cette responsabilité ?
N.E.K. : C’est quand même le fait fondamentalement de gens comme C. Walter par exemple d’accuser le modèle brownien. Il y a deux choses qui sont différentes : quelle est la responsabilité des scientifiques dans la crise et par ailleurs est ce qu’un modèle particulier a joué un rôle particulier ? Je reviendrai sur le 2° point parce que même si certaines choses sont pertinentes dans ce que dit Walter, je lui reproche fondamentalement de ne pas avoir expliqué qu’il y a en fait mille modèles en finance. Ce n’est pas parce qu’on a beaucoup de possibilités, c’est qu’on fait un modèle en fonction des problèmes que l’on a à résoudre. Et comme on a 1000 problèmes différents en finance, sur chacun, on peut modéliser différemment en fonction des questions que l’on se pose.
Donc concernant la place des mathématiques, et en finance, et dans la crise, il y a quand même 2 points que je voudrais souligner. Les mathématiques sont très utilisées dans une seule activité : la couverture des produits dérivés, le monde des options de la finance de marché. Très utilisé, car ce domaine n’aurait pas vu le jour sans l’utilisation des maths. Mais 99% n’en ont pas entendu parler. Cependant, cela a des conséquences jusque dans les guichets des banques, qui peuvent vendre des produits assurés. C’est fondamentalement là que les maths servent, c’est pour cela que l’on a parlé de mathématiques en finance. Avant, on avait toujours utilisé des statistiques, en particulier pour la gestion de portefeuille. Au départ, c’était assez basique, puis cela s’est enrichi, et il y a eu le prix Nobel dans ce domaine.
Mais par rapport à la crise, 90% de ce que j’ai lu était inadéquat par rapport aux responsabilités mathématiques dans la crise. Ce qui est vrai, c’est que si vous êtes scientifique dans un univers, vous contribuez à sa vie et quand l’univers déconne, vous êtes responsables en partie comme les autres. Je ne fais pas du dédouanage à tout prix, mais la réalité d’un business ce n‘est pas d’appliquer les modèles mathématiques. Il y a un cadre, un minimum de choses qui passent, mais si on regarde le décalage entre la recherche en finance mathématiques et les applications, le décalage est infini : très vite, les chercheurs ont pris en compte les imperfections de marché, qui sont relativement peu pris en compte dans le monde du business. Donc il y a un réel décalage entre une analyse plus mathématisée et la réalité. Deuxièmement, cela joue dans l’autre sens, on va dire alors que les maths avaient bien conscience qu’une partie du business était plus risquée qu’on ne voulait le dire. Cependant, je ne ferai pas confiance aux maths pour expliquer le business, car on n’a jamais de solution exacte à un problème. On a un modèle, des hypothèses, la sensibilité de la question est savoir si le monde est à peu près dans nos hypothèses et ensuite, le marché compose allégrement. Mais le marché a beaucoup corrigé les modèles et la manière dont on s’en sert assez loin de leur véritable signification. On peut dire que, depuis la crise d’internet dans les années 2000, il a fallu 2 ans pour que le marché s’en remette, mais à partir de 2003 on commence à rentrer dans une bulle, poussée par la croissance, les taux d’intérêt extrêmement bas, avec début 2003, un taux de court terme aux USA qui est de 0. Il y a eu une facilité sur le loyer de l’argent de paire avec l’ouverture du marché aux USA. Quand vous avez un loyer de 0 vous pouvez acheter n’importe quoi avec, et spéculer. Donc ça a boosté les opérations financières et on a vu un début de bulle, visible a posteriori. Dans les produits dérivés, on observait une augmentation de 30 à 35% entre 2003 et 2007. Et la majeure partie, pas que l’activité sur le crédit. C’est important pour les salles de marché, car comme toute activité de la salle est traitée informatiquement tous les jours, techniquement c’est un vrai challenge, car on est déjà presque saturation en temps de calcul, et avec + 30%, on a toujours malheureusement une journée de 24h. Cela a eu de l’incidence sur pas mal de choses, a conduit à des simplifications, une analyse des risques un peu moins précise, car il fallait faire ça. Donc les problèmes techniques sont souvent à la source, ce ne sont uniquement les gens qui ont décidé de faire n’importe quoi.
Donc cette bulle a tiré le marché, on a beaucoup vu cette bulle en termes de formation, c’était une période où les banques recrutaient énormément, la demande était telle que l’on a augmenté nos effectifs aussi de 30%. La finance est donc bien technique.
J.P. : Est-ce que cela a conduit à une automatisation où justement, les maths auraient servi à faire cette automatisation ?
N.E.K. : Oui, les maths sont présentes dans tout cela à travers les produits dérivés. Mais ce qui m’étonne, c’est le décalage avec les régulateurs et les ministres, ils sont à 150 km des marchés, ils n’ont pas intégrer la technique !
M.K : A-t-on fait appel à votre expertise au moment de la crise ?
NEK : Non, mais lors de la crise, le marché s’emballe, notamment sur les produits dérivés et là on n’était pas d’accord, même si on traite quand même les questions. Souvent, on jouait sur le défaut des gens, ce qui est différent de jouer sur du change ou sur un stock. Dans le domaine des produits dérivés on prend des risques, mais celui qui les prend à la place du client peut les réduire avec des stratégies de couverture, et peut acheter et vendre des contrats à terme ou du sous jacent pour adapter, ajuster par la gestion ce que l’on aura à payer. Et cela marche très bien quand l’on est en marché brownien, comme c’est une pratique qui se fait au jour le jour, l’impact du modèle est assez réduit. Il y a aussi un lien entre la vision des risques et le développement de l’activité. Si l’on reste trop prudent, les actions deviennent très chères et le marché disparait ; Ca a été le cas après la crise de certaines activités qui ont été réévaluées à leur juste valeur ; même les assurances étaient alors trop chères donc on préférait ne pas s’assurer. Il y a donc une grande différence de nature entre le monde très technique mais sur lequel la base est que le sous jacent pouvait être traité, on avait de l’information au jour le jour sur la manière dont le marché voyait les risques sur le produit assuré. Et le monde de l’assurance. Mais dans le cas sur les dérivés de crédits, une nouvelle catégorie de produits, les agences de rating ont estimé les risques sur le passé. Ces produits apparaissaient donc comme très sûrs car il n’y avait pas eu de défaut, toutes les choses vendues étaient donc considérées sans risques, alors que ce n’était pas le cas. Or ce qui s’est passé est que des évènements plutôt rares qui se sont produits. Mais comme on estimait sur un panier de 100 noms, même si un faisait défaut, cela avait peu d’impact, comme l’a montré la crise de General Motors en 2005. Les gens son devenus moins vigilants car l’impact se révélait faible sur les CDO. Mais si 10 personnes font défaut, cela devient dramatique, donc en période de crise, les modèles infiniment sont risqués. Mais on n’a pas besoin d’un modèle mathématique pour le savoir ! Il suffisait de regarder ce qu’il se passerait si 10 personnes faisaient défaut en même temps. Le brut est à mettre en rapport avec les fonds propres, et que les modèles soient fractals ou pas, la probabilité que 10 entreprises du CAC40 fassent défaut en même temps, on le décide, car cela ne s’est jamais produit.
M.K. : Pour vous, cela n’est donc pas très important que le modèle ne prenne pas en compte les risques extrêmes ?
N.E.K. : Non, ici c’est par rapport à ce business là, les produits dérivés sur lesquels les maths étaient très présentes. Dans une vision plus globale, en particulier en termes d’activités proches du marché, la question devient beaucoup plus pertinente, déjà dans ce qu’on va mesurer autour la value at risk, probabilité de la perte max en % (quelle est la probabilité que la valeur de mon portefeuille passe sous ce seuil à 99%). Le régulateur en ce moment n’a d’ailleurs pas froid aux yeux, il fait calculer des niveaux de pertes potentielles à 99,99%. Donc là, on devient très dépendants du modèle. Je ne connais pas de probabilistes qui vivent dans un univers avec 99.9%. C'est tellement précis qu’en fait bizarrement, on peut passer à côté de vraies pertes. Ce degré de précision ne marche que si on peut considérer que l'univers entier est consensuel sur un modèle. Si tout le monde est d'accord sur ce modèle, après on peut raffiner parce que les chiffres sont comparables à ceux du voisin. Mais, comme c'est pas le cas, on a du mal à penser que la réalité des marchés va être décrite par des modèles au sens strict, auquel on va pouvoir faire confiance absolument, et donc aller chercher de l'info comme ça , ça devient tellement dépendant du modèle que moi je pense que l'on est capable de trouver des niveaux qui peuvent changer de 30 à 40% sans problème en changeant de modèle. La var, la quantité règlementaire qui est calculée sur les activités de marché, est donc intéressante par le fait qu’elle se calcule à un jour, donc même si l’on ne sait pas ce qu'elle est censée représenter, on a pas mal d'informations sur ce chiffre et l’on peut regarder quand ce chiffre bouge. Mais les modèles servent tout de même à apprécier si la mesure qu'on donne peut être pertinente ou pas. Des événements dits rares ne devraient pas se produire.
Dans l'analyse des risques, l'idée que la représentation du monde gaussienne est vraiment une représentation qui minimise la perception du risque. Je suis complètement en accord avec ce que tout les gens remarquent sur la vision du risque du marché révélée par les cours par rapport au modèle. La vision du risque, celle qui est révélée par les cours, montre que les chocs extrêmes sont plus fréquents , et en particulier induit des grands mouvements qui ont une probabilité plus fréquentes, que celle qu'on estime dans les mouvements browniens.
A côté de ça, et là où je n'adhère pas, c'est la manière même dont Mandelbrot et Walter, en particulier dans son livre, ont l'air de dire qu'il y a un modèle, alors que ça fait vingt ans que je travaille dans la banque et qu’au bout d'un moment, on est obligé de se poser la question : qu'est-ce que c'est qu'un modèle? Si lui il fait de la gestion de portefeuille dont la base est de prédire la tendance, de savoir qu’autour de la tendance on n'a pas la petite fourchette habituelle de l'intervalle de confiance mais qu'il peut y avoir de grands phénomènes qui font perde ce qu'on a gagné avant, ça c'est vital.
Mais tout le monde connait les travaux de Mandelbrot depuis qu'il les a fait en 1960, ils sont encore plus connus que les travaux de Bachelier, sur la vision des produits dérivés, alors que bizarrement tout le monde ne s'en est pas servi. Il faut aussi se poser la question de pourquoi personne ne s'en est servi. La révolution introduite par Merton a été un virage radical, une révolution, et si le modèle de Mandelbrot avait été une telle révolution, il aurait été accepté.
Les difficultés sont de deux ordres : le premier est le nombre de données qu’il faut pour identifier un marché fractal : si on part de données daily, il vous faut a peu près 6 ans de données. Mais que signifie alors se baser sur 6 ans de données quand votre activité elle se fait au jour le jour ? Ce processus n’est pas adapté au monde des produits dérivés. Attention, en général, il y a plus de problème qu'on ne croit, mais les gens qui gèrent ça tous les jours le savent, la question n'est pas est-ce que je le sais, mais est-ce que je suis capable d'utiliser un modèle qui va quantifier cet effet là. Alors, l'un des problèmes de la modélisation fractale, ou plus subtile, c’est que ce processus intègre plus le passé, il faut un certain nombre de données pour appui. Par exemple, remonter sur 5 ans en 2007, c’est utiliser exactement 5 ans de données qui montent. Par ailleurs c'est un problème plus lié aux limites des statistiques en finances. Quelle est la signification des données passées pour prédire le futur ? Pour que l'outil statistique puisse entre efficient il faut une certaine stationnarité, donc c’est un vrai problème pour tout le monde, mais si on doit identifier un modèle à partir de cela, c’est encore plus difficile selon les activités. Ce processus est plus souvent utilisé en gestion de portefeuille, plus sur les données haute fréquence, car ils utilisent beaucoup de données. Ce n’est pas à mon sens un bon débat car un modèle n'existe qu'en fonction de l'activité que je veux avoir. Dans le monde des produits dérivés, on se base sur les prix des produits qui sont déjà côté dans le marché et non pas sur les produits passés, l'information sur la manière dont aujourd'hui le marché voit le futur révélé par d'autres produits dérivés paraît plus pertinente, mais on peut discuter de ça aussi d'ailleurs, c'est plutôt un mélange de beaucoup de choses, mais par rapport au business c'est la dessus que les gens se basent. Du coup, il font un modèle qui sera plutôt brownien, en tout cas, plus brownien que fractal parce qu'il n'y aura pas assez d'informations pour être fractal. Et quand on construit des modèles pour un jour, le modèle que l'on met derrière ne compte pas beaucoup, la question est plutôt sur quoi l’on va mettre l’accent. Est-ce-que les modèles marchent? En tout cas, les principes qui sont derrière marchent dans un monde qui n'est pas de crise, et il est normal qu’ils ne marchent pas quand il y a une crise.
De plus, le marché à crée des structures qui font en sorte de réduire les coûts de transaction, car si vous payer des couts de transaction très chers, cela sera répercuté dans le prix des contrats. Ainsi, aujourd’hui, vous pouvez emprunter des titres comme de l'argent à une banque. C'est tout le débat autour de la vente à découvert. Or ce qu'on voit en permanence, c’est que si l'activité se développe, des structures se mettent en place. Or elles fonctionnent quand il y a beaucoup d'échanges, mais en temps de crise, si les modèles marchaient, ce seraient de très mauvais modèles car les hypothèses ne sont plus là. Les hypothèses sur le fonctionnement des marchés sont du type : est-ce que je peux acheter, vendre,… Elles ne portent pas sur le comportement des sous-jacents mais sur l'organisation des marchés, donc dans la crise qu'on a vu, comme l'argent de court terme coûtait très cher, l’offre ne rencontrait plus la demande, tout ce qui a fait que pendant dix ans le business a fonctionné a disparu. Et une fois que tout est complètement changé, la réalité du marché n'est plus la même. Le modèle est un tout, il ne peut donc plus fonctionner.
Mais c'est vrai que quand les gens rentrent sur les marchés, ils ne savent pas quoi faire, donc ils commencent par prendre les modèles de base, en particulier celui de Black Scholes, alors que c’est une aberration. Enfin, le problème dans les produits dérivés est le fait que l’on fait des modèles pour quantifier les couvertures, on essaie de minimiser le rôle des tendances, et que ce qui reste au trader, c'est le risque de volatilité, et ce que les mouvements soient petits ou larges. Il ne reste que le risque de fluctuation, mais sont-ils capables d'analyser ça à un jour ?
Et une fois toutes les opérations réalisées, comment analyser mieux le profil de pertes ? C’est ce qu'est censé faire la var, mais la var le fait sur un portefeuille agrégé, tous les produits de la salle qui sont couverts. Ainsi, il y a des risque qu’on ne mesure pas bien ; c’est d’ailleurs un peu le principe de la diversification, certains risques jouent dans un sens et d'autres dans un autre sens. Mais dans les périodes de crise où le marché décroche, tous ces risque qui se compensaient ne se compense plus, on ne peut plus faire d’opérations,… Evidemment, le modèle réduit la réalité, mais l'avantage c'est qu'on ne fait pas les choses au hasard, en réduisant, on est censés avoir une mesure de ce qu'on réduit. Enfin, la difficulté consiste donc à savoir si l’on réduit intelligemment par rapport au business ou pas. Mais ce que les gens pensent dans les marchés, par exemple pour Black Scholes, c’est que son premier intérêt est qu’il est facile à comprendre, donc le lien entre paramètres et risque est facile à comprendre, ce qui est fondamental, et que de surcroît il est ce qu’on appelle robuste, donc si on l’applique à des choses qui ne vérifient pas exactement les hypothèses, en particulier sur la dynamique, on est en fait capable de comprendre comment le modèle et la couverture qui en découle vont évoluer, donc on sait si par exemple on a minimisé la volatilité… Ainsi, dans les marchés assez compliqués, les gens préfèrent avoir un modèle simple où ils savent sur quels paramètres il faut jouer pour compenser la réalité du marché, qu’un modèle plus sophistiqué. Le modèle idéal pour un trader, c’est d’avoir un paramètre associé. Il se moque du modèle, beaucoup d’ailleurs ne comprendraient pas ce qu’il y a derrière, mais son problème est d’avoir un modèle avec des paramètres, directement accessibles, et où certains types de risques de marché sont expliqués par un paramètre spécifique. C’est un peu optimiste. Donc le rêve du trader n'existe pas vraiment, mais quand on est quand même capable d'expliquer ce qui se passe vraiment par certains paramètres, c’est déjà bien. Donc souvent, c'est un peu a posteriori que les gens analysent.
Mais pour revenir au débat, ce n’est pas un enjeu réel du marché des dérivés. Les risques résiduels qui restent peuvent être analysés avec les modèles, mais les principaux risques qui ont été pris ne le sont pas à cause des maths. Ca vient vraiment du fait que le business est basé sur une base d'un minimum de liquidité, qu’effectivement, il ne doit pas y avoir trop de perturbations, et que quand il y en a elles doivent être corrigées en permanence. Donc quand un agent fait une couverture, il réévalue les paramètres de son modèle, donc même en étant un mauvais modèle, les paramètres du modèle sont sans arrêt réévalué et il n’y a au final plus vraiment de modèle utilisé moi. Le modèle est-il alors très important ? Non, c’est une manière de représenter les choses, et après c’est comme le pilotage d’une voiture, la boite de vitesse te donne des paramètres et il faudra ajuster en fonction en tournant le volant, en appuyant sur le frein... Donc si à la base les choses étaient complètement aberrantes, ou même complètement déconnectées de l’univers, on ne pourrait même pas corriger. Par exemple, si les produits qu’on regarde ne reposaient que sur ce qui se passe dans les queues de distribution, ça ne marcherait pas, parce que la réalité serait sans doute faussée, et les modèles gaussiens auraient beaucoup de mal à se maintenir. Donc le modèle ne doit pas être trop aberrant, car quand les paramètres sont corrigés à la marge, le marché fonctionne. Tout cela a certes été remis en cause dans la crise, mais c’est un problème d’hypothèse : si on ne peut plus échanger, alors le marché s’écroule.
J.P. : Donc en fait, pour vous, le problème vient des hypothèses économiques ?
N.E.K. : Pour moi, le package est indissociable, donc si ces hypothèses là n’avaient aucun rapport avec la pratique réelle qu’on peut mettre en place, ça n’aurait pas été utilisé. Ce sont des décisions arbitraires qui font parfois les marchés. Qui a décidé par exemple que l’échelle de temps de gestion dans le monde des dérivées serait la journée ? Dans l’organisation du business, personne n’avait vérifié que les produits gérés n’étaient pas sensibles pendant la nuit aux mouvements du marché. Autre exemple : les gestionnaires de portefeuille ne changent pas leur position tous les jours, ils les changent tous les mois. De même, quand on fait des investissements classiques, on ne change pas de position tous les jours. Pourquoi est ce que dans le marché des dérivés on a chois la journée ? C’est une pratique de business, qui n’a pas du tout été utilisée par les mathématiciens a priori, mais elle induit certaines conséquences théoriques. D’autre part, la pratique a été mise en place avant les modèles. Par exemple, les agents font les prix à l’offre et la demande, ils ne décident pas des prix avec les modèles. Peut être les produits très nouveaux sont faits avec les modèles, mais sinon les prix répondent fondamentalement à l’offre et à la demande. A quoi servent alors les modèles ? Il va servir à réduire les risques. La banque prend des risques à la place du client, et donc elle doit limiter ses risques. Auparavant, ce type de produits existait déjà, mais à petite échelle. Et donc comme ils faisaient ça sans couverture, ils prenaient de grosses marges. J’avais discuté avec des gens de l’ASG, ceux qui ont monté les premiers l’activité, et ils disaient qu’au début, ils n’avaient pas la moindre idée de combien ils devaient acheter pour se couvrir efficacement. Ca s’est donc fait par tâtonnements, mais rapidement, la quantité à acheter pour se couvrir, ça a été la formule de Black Scholes. Il y avait donc une question que le marché ne savais pas résoudre, puis la liquidité sur ces produits à augmenté et ceux qui choisissaient au hasard ont rapidement perdu beaucoup d’argent parce que les marges qu’ils pouvaient prendre se sont resserrées. Une proposition totale nouvelle par rapport à l’assurance classique a donc été faite, ce qui est devenu une vraie révolution. Et depuis la théorie n’a pas été modifiée, elle reste la même, d’ailleurs elle peut intégrer une autre représentation des risques, ou des sous jacents, mais ce sont principalement les échanges entre la théorie et la pratique qui ont conduit à l’évolution et à la pratique actuelle.
On parle beaucoup par exemple de la formule de Black Scholes, mais c’est juste un système de représentation. Donc même quand les gens n’ont pas du tout fait du Black Scholes, pour pouvoir discuter avec les autres, ils disent « dans la formule de Black Scholes, cela signifie que le paramètre que je peux fixer vaut tant. » C’est une sorte de grille de lecture qui permet de comparer des prix entre eux. Si on regarde les taux d’opération, dans un emprunt par exemple, on regarde le taux actuariel de l’opération. Ce taux actuariel est une mesure commune, une grille qui ramène des choses qui ont des caractéristiques différentes à sorte d’équivalent du produit. Donc Black Sholes va faire exactement comme la courbe de taux plate qu’on utilise pour calculer les taux actuariels, c’est une sorte d’intermédiaire pour calculer le paramètre de risque qu’est la volatilité. Mais c’est tout. Dans le monde des taux aussi, on calcule les taux actuariels en supposant le taux plat qui me donnerait exactement la même valeur, et on a la même démarche ici sur le paramètre de volatilité dans le modèle de Black Scholes, mais ce n’est pas du tout un modèle. C’est dans la boîte Black Scholes. D’ailleurs même si la représentation qui est sous jacente à Black Scholes sont des modèles à trajectoire continue, mais on peut mettre des modèles de saut et sortir un paramètre. De toute manière, un prix n’a que peu de sens en soi car il est difficile de comprendre quel est l’impact des caractéristiques et quel est le paramètre de risque et donc Black Sholes sert à définir, à mettre en avant que ce qui va rester à celui qui vend les produits, et a priori c’est ce risque de fluctuation, de volatilité. C’est aussi un peu dangereux parce qu’on se focalise sur le fait que la seule chose qui n’est pas bien capturée ou bien réduite, c’est ce risque là, alors que ça n’est pas tout à fait vrai que cela soit le seul paramètre qui soit pas maîtrisé. Mais sinon, ce n’est pas parce qu’on fait du Black Scholes qu’on utilise un Brownien géométrique, que d’ailleurs plus personne n’utilise en tant que tel dans la pratique en finance, mais on ne l’utilise pas, la culture est fondée dessus. Donc il y a à mon sens deux choses un peu différentes : est ce que qu’on l’utilise, la réponse est non, on a des modèles beaucoup plus complexes, donc il y a des conséquences du Brownien géométrique qui ne sont pas seulement en termes de risque, qui ne sont clairement pas représentées dans les marchés et d’autre part, est ce que si on utilisait un modèle fractal, il expliquerait mieux mes prix d’options aujourd’hui ? Mais l’important n’est pas d’expliquer les prix, comme je l’ai dit, puisque la plupart du temps ils sont faits par le marché, mais comment mettre en place une stratégie de couverture. Certains ont essayé, mais cela ne se révélait pas très efficace, parce que soit il n’y a pas assez de recul, mais surtout, on a du mal à mettre l’accent sur toutes les zones qui sont utiles. Alors si l’accent est mis sur les queues de distribution, on aura tendance à ne plus trop regarder ce qui se passe au milieu. Et le business quotidien se passe quand même au milieu, au moins essentiellement au milieu. C’est là qu’il y a beaucoup de transactions. Mais en même temps, les chocs vraiment douloureux se produisent dans les queues. Donc le discours fractal est très important parce que, même si les choix principaux sont gaussiens, il faut quand même savoir que tout le monde sait que la réalité est plutôt fractale, mais qu’il est tellement compliqué de l’implémenter que malgré tout quand on fait la var, dans 90% des cas, on fait une var gaussienne. Mais ce double discours est très important et ils ont parfaitement raison de dire attention, c’est plus compliqué que ça. Toutefois, l’échelle de temps à la journée n’est pas très adaptée à ça. En fait, le business est quand même très technique, les gens réfléchissent, et globalement, une bonne gestion au quotidien est nécessaire, sinon on perd de l’argent et ce n’est pas souhaitable. Comment alors les gens gèrent-ils cette dimension de risque extrême plus fréquent ? En mesurant les stress scénarios. En même temps, c’est assez compliqué de faire vivre ensemble un risque quotidien qui est assez significatif mais assez bien contrôlé, et un risque extrême non contrôlé mais qui se produit. Enfin, dans les esprits, le problème est que ce qui va se passer quand il y aura une crise sera totalement nouveau parce qu’en général, on a corrigé les problèmes qui avaient conduit aux crises précédentes. Il faut donc avoir une sorte d’analyse : si on sait que ça peut se passer très mal, les gens font des stress scenarii, et mesure la réponse du marché aux risques extrêmes. Mais je suis toujours étonnée que personne n’ait demandé aux banques combien elles avaient gagné sur les dérivés de crédit? Je ne suis pas sûre que les banques aient perdu sur les dérivées de crédit. Comme il y a eu une bulle, elles ont gagné des milliards et puis comme ça s’est planté, tout le système s’est planté. Mais individuellement, je ne pense pas que le bilan de chaque banque soit négatif. J’ai d’ailleurs le souvenir de la crise asiatique où, sur les trois derniers mois de l’année, ils avaient perdu énormément d’argent alors que toutes les banques étaient positives sur l’Asie sur l’année. Mais elles avaient quand même perdu des sommes énormes en très peu de temps. Donc cela soulignait qu’elles s’étaient bien gardées de dire combien elles gagnaient d’argent avant parce que, l’autre discours sur les crises, c’est que l’on n’est jamais renseigné sur les gains. L’argent gagné sur les activités est quelque fois faramineux. Mais quand une activité commence à gagner de manière faramineuse, c’est que quelque part, les gens disent : « on y va ». Nous, les mathématiciens, nous disons que le gain signifie qu’il y a du risque car le marché est liquide et assez bien arbitré. Il y a beaucoup d’intervenants sur un marché et les opportunités ne durent pas éternellement. Mais ça s’oublie assez vite, et on arrive à un temps où ça s’approche assez vite du casino. Il peut y avoir des imperfections mais des imperfections soit liés à certains problèmes techniques, soit liés à des ouvertures de bourses ou des fermetures de bourses. Voilà ; la réalité fonctionnelle des marchés, elle peut permettre des imperfections sur lesquelles les gens jouent, et c’est normal. D’ailleurs, le fait qu’ils les repèrent, en général, conduit à les corriger. Mais le problème qui se passe, c’est que quand, en général, les gens ont repéré une imperfection, ils vont miser de plus en plus gros sur cette imperfection. Les grosses faillites et les grandes crises, ça a été souvent, une petite imperfection. Et çà peut-être c’est le message de cette crise-là. C’est que l’on n’a pas de système de contrôle de risque. Personnellement, je fais du conseil sur la validation de modèles, mais on ne sait pas combien va être misé sur chaque modèle. En fait, les risques qui sont derrière n’ont rien à voir selon la taille.
Enfin, il y a tout ce qui n’est pas dans le modèle. Une chose qui est quand même importante là-dessus, c’est qu’en 1973, quand Black Scholes et Merton proposent leur modèle, les modèles de Mandelbrot sur la gestion des cours sont très connus des gens de la gestion et des gens qui font des modèles. Donc il y a deux choses : le premier point, c’est que comme ils introduisaient des nouveaux modèles, des nouvelles idées, ils les ont testés sur un modèle simple, c’est assez naturel, mais ils ne pensaient pas du tout que les marché allaient s’en servir, de toute façon, leur article est sorti deux ans avant que les marchés aient besoin de ce genre de raisonnement. Et en testant sur un modèle, ils ont vu que ça donnait des choses intéressantes. Mais tout le monde travaille ainsi, tout le monde commence par un modèle trivial. Donc le second point, c’est que ce n’est pas un modèle qui explique, on est plutôt en train de tester une manière de penser les choses un peu différente, et on regarde si sur les objets trouvés ont l’air crédibles. J’ai dû faire des modèles et les prix que je trouvais avaient toutes les propriétés… Ils étaient moins chers si je donnais plus de droits à la fin, etc. Donc s’il y avait un truc qui ne marchait pas, les propriétés naturelles que l’on demande ne seront pas là.
Christian Walter a aussi l’air de dire qu’il y a une sorte de modèle universel et c’est ce avec quoi je suis en désaccord. Après, tout ce qu’il dit est complètement pertinent. Mais il n’y a pas une sorte de modèle universel qui pourrait rendre compte de tout.
Je pense qu’il y a donc deux choses, le débat est très intéressant, sauf que je trouve qu’ils sont plus sectaires que moi. Je ne dis pas j’ai raison. De toute façon, ça fait vingt ans que je travaille là dedans, quelque part la formule Black Scholes sert toujours à lire les prix, mais bon en fait, ce n’est pas ce qu’on fait, donc on ne va pas dire que c’est ce qu’on fait, mais je trouve dangereux d’avoir l’air de dire qu’un modèle ça existe, un modèle n’existe pas. Il y a des outils mathématiques, qui ont été fondamentalement conçus en dehors de tout ça d’ailleurs, et c’est la boite à outils. Ils sont compliqués, c'est-à-dire le commun des mortels ne le comprend pas. Mais quand je prends une voiture, je ne sais pas ce qu’il y a derrière non plus. Ce que je veux dire, c’est qu’il y a une boîte à outils, après la question concerne comment je raisonne et ce que je cherche dans la boîte à outils, ce qui va me rendre service. Cette question est un débat permanent, mais ce que j’ai découvert dans la pratique, c’est que le business fige les choses. Au sens où par exemple, il y a quand même des développements informatiques, et moi qui ait suivi l’activité, quand il y avait trois personnes aux risques en 98, maintenant il y a 32 personnes, c'est-à-dire il y a à peu près autant de gens en quantitatif que de quant pour la salle de marché, et on ne peut pas dire qu’ils ne regardent pas les risques. Donc on utilise cette boite à outils, qui est assez technique. Pour les techniques de calibration, c’est des résultats mathématiques assez compliqués qu’on va puiser dans la boite à outils, mais quelque part, c’est une boite à outils et l’important reste la manière dont les gens vont se servir de la boite à outils. Et c’est surtout que c’est une évolution permanente. Ce que je veux dire c’est que la boite à outils décrit la culture de marché, et si on comprend beaucoup mieux les risques en 2010 qu’on ne les comprenait en 1990 quand moi j’ai commencé, comme on les comprend mieux on en prend d’autres, on en prend plus. Mais c’est vraiment un package. L’idée de la voiture est là, depuis toujours on sait qu’il faut freiner, mais quand même il y a eu un gros travail sur les freins. Depuis toujours on sait qu’il y a des risques puisqu’il y a un business du risque, donc ça n’est pas la question mais après, on passe son temps à raffiner les risques, on le fait effectivement mais les marchés ont tendance à fonctionner sur le mode plutôt d’alternance de bulles spéculatives et cracks, et c’est vraiment tout un ensemble.
Je ne refuse donc pas le débat, ce que je sais c’est que, dans l’échelle de temps et de cette activité là, ce n’est pas le plus pertinent. Le modèle brownien n’est peut être pas nécessairement le raffinement autour des modèles. Mais je suis frappée de voir qu’une fois que quelque chose a été implémenté dans un système, même si ce n’est pas très bon, cela reste. Par exemple pour l’analyse de la courbe des taux, la représentation de la courbe des taux n’est pas un enjeu de modélisation. Il y a certaines périodes où la manière dont c’était fait convenait très bien, mais plus maintenant. Or, on ne va pas toucher à la courbe. Parce qu’il y a sans doute dans le système un endroit, où si on la change, quelque chose a été rentré en dur. Donc les gens ils se demandent si ça vaut vraiment le coup. Mais en corrigeant à la marge, encore et encore, on aboutit à une succession de modifications qui en fait ont des impacts un peu décalés.