Compte-rendu d’entretien avec un analyste financier
13 Mai 2010



Margot Hovsepian : Est-ce que vous connaissez le modèle brownien ?

Analyste: J’en ai entendu parler pour la première fois à HEC (un vague souvenir d’école de commerce), au delà de ça dans les activités dans les entreprises, ce n’est pas un sujet, et dans les activités de marchés, on ne l'utilise pas en tant que tel, mais c'est sous-jacent à Black et Scholes. Le mouvement brownien, j’ai de vagues souvenirs, c’est les particules de pollen à la surface de l’eau?
C’est utilisé dans les modèles de pricing, les options, les produits dérivés. Black et Scholes reste le modèle de référence. J'ai eu des cours là dessus chez Goldman Sachs, mais c’était un séminaire dont je n’ai pas vraiment de souvenir. Black et Scholes est une référence pour le pricing d'option, et les valorisations, c'est ce qu'on enseigne dans les cursus académiques (HEC). Dans la pratique, quand j'étais côté fusion acquisition, parfois il nous arrivait de faire du pricing d'option, on utilise aussi du Black et Scholes.

Marine Kettani: Est ce que vous faites vous-même des changements dans les formules, ou est-ce que vous appliquez les modèles tel quel?

A: Cela dépend des métiers, de la qualification des gens et de ce qu'on fait sur les marchés financiers. Je gère, pour simplifier, un portefeuille d’instruments financiers (essentiellement des actions mais aussi des produits dérivés), des produits financiers à partir du moment où ils sont cotés, avec un regard sectoriel, celui des médias et des télécom. Mon métier, c’est de trouver des idées d’investissements, d’analyser les ratios risk/ reward et de valoriser les risques par rapport à l’espérance de gains. Ensuite, il faut définir les stratégies d'investissement, et les exécuter et les structurer intelligemment avec les traders qui sont plutôt des normaliens ou des ingénieurs. Ils vont définir l'ingénierie financière la plus adéquate par rapport au ratio risk/reward que j’ai identifié, et par rapport à la stratégie d'investissement que je veux dérouler. Dans la pratique, 9 fois sur 10, c’est moi qui définis le trade. Quand c'est un peu compliqué, notamment sur le hedging du risque, on applique les modèles.
Tout d’abord, un hedge fund n'est pas un fond spéculatif, une grande partie des activités d'un hedge fund consiste à se protéger (to hedge en anglais se protéger) contre le risque de marché quelque que soit la direction du marché (c’est le critère de protection absolue). Le principe même du hedge fund, c'est de hedger, c’est-à-dire que quand je veux acheter une action ou une obligation ou un titre côté, c'est de derrière ça en vendre un autre ou d'acheter une protection, qui permette de se protéger contre les risques de marché. La gestion du risque est clairement au cœur de mon activité quotidienne. Pour se couvrir contre les risques, soit quand vous achetez un instrument financier, vous achetez du risque ; soit vous achetez la protection par les produits dérivés, vous achetez du put, dans une vente de call ou de CDS.
Aujourd'hui, mon approche, c'est que j'ai un trade, je veux le mettre en place, je vais le hedger, donc dans la grande majorité des cas, j'ai une idée de la manière de le hedger. Par exemple dans les télécoms, acheter ces puts c’est parfois plus approprié car ça dépend de la volatilité, des risques etc. Et ensuite j'en discute avec les traders, qui vont pricer l'option Eux, ce qu'ils demandent c'est, c'est quoi ton horizon temps, ton espérance de gain, ou c'est quoi le risque que tu veux couvrir ? Ensuite ils montrent voila ce que cela nous coûte, voila ce que la marché propose… et finalement est-ce que c’est la solution finale ou est-ce qu’il ne vaut mieux pas vendre un indice ou une action etc…Si je veux des actions, je demande au trader dérivé, si je veux des obligations, je demande au trader CDS pour définir le hedging ou la stratégie d’investissement.
Comment fonctionne le pricing d'option, c’est la question qui vous intéresse. Comme ce sont des marchés relativement liquides, la première étape, c’est de pricer le marché c’est-à-dire que je vais acheter des puts FT ou des calls. Sur la chaîne de valeur: nous on est des investisseurs, on gère le capital des clients qui nous confient leur argent et on définit les stratégies d'investissement par rapport aux perspectives de risques et de rendements. Au fur et à mesure qu’on décline notre stratégie en techniques financières, je définis ma stratégie, je vais acheter des télecoms et me couvrir avec des puts sur les télécoms, ensuite il faut mettre en place le trade : l'exécution passe par les courtiers. Ils exécutent nos ordres, ils sont des intermédiaires entre le gestionnaire et le gérant et le marché. Une fois qu'on a défini et mis en place le trade, le trader va appeler les 4, 5, 6 courtiers avec lesquels on travaille pour avoir une vision de marché (les instruments de couverture disponibles et leurs prix) et ensuite va prendre une vue sur la volatilité de marché, et le risque de marché à l'instant t, qui dépend de la configuration du marché. Par exemple, la configuration est de nouveau très volatile avec un risque très élevé alors qu’il y a 2 ou 3 mois, le risque et la volatilité avaient baissé. Le trader lui va regarder les prix, l'environnement de marché, mais assez rarement va utiliser un modèle de pricing parce que quand c’est un marché très liquide avec des produits assez répandus et assez simples, le marché donne en général un assez bon prix : on essaye de mettre en concurrence les offres des uns et des autres et ensuite d’y aller ou pas. Mais quand il s’agit de trades plus sophistiqués, de produits moins liquides ou d’instruments financiers un peu moins courants, on a des gens qui nous pricent les instruments que l'on veut pour le trade. On n’utilise pas des modèles directs.

Par exemple, on a mis un trade en place récemment d’arbitrage de valeur de capital, arbitrer la différence entre l’equity (valeur des actions) et valeur du crédit. Ici, V. a une action à fort rendement (distribue un dividende de 8%) et où le crédit, la boite étant assez endettée, c’est-à-dire les obligations fournissent du 4%. Une entreprise a deux manières de se financer : les capitaux propres (les actions) ou la dette. Les actions sont plus risquées. Le CAPM price le coût du capital. En gros, le CAPM price de manière théorique, le coût de l'equity c'est le coût de capital d’une entreprise qui est cotée, c’est le coût de l’actif sans risque plus la prime de marché ajusté de la beta de l’action (volatilité par rapport au marché et le risque de l’action par rapport au marché), pondéré par le coût de l'endettement du marché financier. D’un point de vue pratique, le risque en finance, c’est la probabilité de perdre de l'argent. Quand vous investissez dans la dette ou les capitaux d’une entreprise c’est le même sous jacent car c’est la même entreprise. Mais une action est plus risquée qu’une obligation. Si l’entreprise fait faillite, le premier à perdre de l'argent c'est l'actionnaire, alors que le créancier est remboursé en priorité : pour le créancier, c’est un crédit qui doit être remboursé, et le créancier n’est pas exposé à l’upside de la création de valeur d’une entreprise. Le créancier a moins d’espérance de gain, mais il a aussi moins de risque. Tout ça pour dire qu’il existe des arbitrages entre dette et equity. Dans l'exemple de V., on a une société qui donne 8% de rendement sur l’equity, et c’est un dividende qui est assez peu à risque, c’est une société assez leveragée, endettée; et il y a 4% de coupon sur sa dette. Il existe un point optimal théorique, un niveau d'endettement qui maximise le retour sur l'equity. L’endettement est assez risqué pour le crédit car il y a un risque fort de racheter d'autres boites donc de diminuer son capital, et cela peut détériorer son ratio de crédit. Il y a un risque-crédit pas forcément mauvais pour l'equity car elle est créatrice de valeur dans le long terme. On a plutôt envie d’acheter des actions V. L’action devient presque une obligation (car il y a un fort rendement) mais il y a un vrai risque de marché, s’il y a un krach de marché comme l’année dernière et la semaine dernière, on va se retrouver avec des événements à forte volatilité que l'on a envie de hedger.
Plutôt que se hedger avec des puts sur l’action ou avec d’autres boites dans le secteur télécom qui auraient le même type de risque, le crédit est une bonne possibilité de se hedger, de couvrir le risque de marché car, si jamais il y a un krach de marché, il va y avoir un écartement des trades crédit (c’est-à-dire un renchérissement du cours du crédit aussi brutale que le cours de l’action et même plus brutal car on est dans des crises d’endettement). Le crédit est une protection contre la volatilité, où le CDS est une protection sur le crédit et une prime d’assurance.
L’arbitrage fondamental c’est de se dire, on a de l’action qui donne 8% plus de l’upside et du crédit qui donne 4% avec zéro upside mais un downside significatif en cas de krach de marché. Sans être mathématicien, il y a un arbitrage à faire car j’ai envie d’acheter l’action, l’action ne paraît pas chère. Par rapport au crédit V, l’action V ne paraît pas chère : plus de rendement pour finalement un risque à peu près équivalent. Le trader va pricer la volatilité de la dette et le risque sur le crédit par rapport au risque sur l'equity. Et là, typiquement, on a un normalien en maths qui va faire un modèle où il prend la valeur d’entreprise, la valeur d’equity, la dette et pas mal d’infos en analysant la volatilité des instruments de crédit de V par rapport à la volatilité du marché. On en a déduit que la volatilité sur le crédit est supérieure à la volatilité sur l’equity. Parce que le risque que l’on prend en faisant ce genre de pari c’est que, dans un scénario de trade, on se fait avoir si la volatilité sur l’action est plus grande que la volatilité sur le crédit. Si on prend juste l’assurance sur le crédit, on perdra quand même de l’argent. La question est après, comment est-ce que l'on pondère le hedging entre la couverture sur le crédit et le risque action.
Les modèles mathématiques sont pas mal basés sur Black et Scholes, mais le trader ensuite ajuste à sa manière. On a le trader CDS, qui a aussi son modèle de structure de capital, qui repose plutôt sur des données de marchés, et on peut croiser les deux modèles. On est arrivés à la conclusion que c’était un trade assez intéressant, et on l’a structuré avec les traders, avec des calls V que l’on a financés en vendant de la couverture. On a acheté des calls et on a vendu des puts, et derrière on a acheté de la couverture crédit, donc on a acheté des CDS.
Donc pour faire simple, l’idée du trade, c’est un arbitrage en disant que le risk/reward sur l’action est plus intéressant que le risk/reward sur la dette, si on a un rendement sécurisé qui est beaucoup plus important, avec un upside beaucoup plus important, un risque pas beaucoup plus important. Ensuite le trader a pricé la volatilité et, en fonction de ça, on a mis en place un trade. Il a fait ses preuves, car on a mis en place le trade en janvier ou février, et il a très bien résisté ces 10 derniers jours et fait de l’argent alors qu’il y a eu un mini krach la semaine dernière, il a résisté à volatilité de marché. L’idée de l’analyste financier avec le pricing des traders a résisté à la volatilité du marché.

MH: Dans le cadre d’un trade qui ne fonctionnerait pas, où cherche-t-on la responsabilité : chez les traders ou les analystes financiers ?

A : C’est difficile car on a des processus et des comités d’investissement extrêmement rigoureux. J’ai apporté une idée : acheter des equity V. et couvrir avec du crédit. Mais le trader m’a dit que ce que je ne voyais, c’était le coût de la volatilité différente entre crédit et action. Par exemple, dans une autre entreprise, j’avais fait ce même type de proposition et on m’avait dit non, que ce n’était pas une bonne idée. C’est un peu le même cas de figure avec des dividendes plus importants que le coupon, ce qui est le cas de beaucoup de sociétés aujourd’hui, mais en fait le risque fort était un risque de marché. Une réallocation du capital vers le crédit était risqué, en gros il y a un arbitrage de volatilité à faire que moi je ne vois pas, que je vois quand j’ai de la chance, mais que je ne sais pas pricer. Donc là il faut faire plutôt des arbitrages dits fondamentaux, c'est-à-dire qu’il faut revaloriser le fondamental des actions et des obligations. Personnellement, je ne sais pricer toute la volatilité, le mouvement brownien, etc, ce n’est pas mon truc. Ce sont des outils pour évaluer les crédits totalement différents. Donc le mathématicien se met à pricer la volatilité en utilisant un modèle de Black et Scholes, et qui, je pense, l’a mis à sa propre manière, et est arrivé à la conclusion que sur V, en plus de mon analyse fondamentale, effectivement le pricing de la volatilité sur ledit crédit avait un sens et à partir de ces modèles là, on a pondéré l’arbitrage entre les titres. Donc là, c’était vraiment un rôle très utile. Après, le modèle qu’utilisaient mes collègues reposait sur Black et Scholes, mais là encore, c’est un « modèle vivant » donc il est forcément adapté et c’est un exemple concret où on utilise vraiment le pricing du risque et la volatilité dans un investissement.

M.K. : Justement vous avez vu plusieurs entreprises fonctionner, est ce que vous pensez que toutes ont la même démarche, car étant donné que tout le monde utilise le même modèle il n’y a pas une amplification des erreurs ? Pensez vous qu’il y a les mêmes démarches partout ?

A : Non en effet, c’est un gros problème sur le marché. C’est vrai que sur les produits simples on le voit, et ça amplifie les phénomènes de bulles à la hausse comme à la baisse, si tout le monde pense pareil, si tout le monde valorise les actifs de la même façon, forcément soit vous arrivez très vite à une stabilisation des prix, donc au final ça veut dire que le marché est bien arbitré, soit quand il y a une correction brutale parce que tout le monde avait tort, on voit des corrections violentes à la baisse comme à la hausse. Ca c‘est vrai sur les actions, c’est vrai aussi sur les options, et il me semble qu’effectivement aujourd’hui, Black et Scholes, ça reste le pricing d’option le plus communément répandu et le plus utilisé, avec des sophistications plus ou moins diverses selon les banques et les traders. Mais, du coup, d’une part c’est une bonne chose, parce que tout le monde parle le même langage et ensuite ça permet aussi d’avoir le jeu de l’entente, car le prix finalement c’est la rencontre d’une offre et d’une demande, et quelque part c’est aussi un peu dangereux, car vous avez des hypothèses et que le modèle n’est pas parfait, comme tous les modèles théoriques. Il arrive des choses , et ça la crise de l’année dernière l’a prouvé : les hypothèses de marché, qui sont vraies dans 99% des cas et ne le sont pas dans 1% des cas ; quand ce 1% des cas se réalise brutalement, là c’est la catastrophe. Donc les modèles ne peuvent plus fonctionner, et s’il n’y a pas de modèle alternatif, les gens ne savent plus faire ou alors dans la panique tout le monde vend.

M.H. : Vous pensez qu’il y a vraiment une grosse part de responsabilité des modèles dans une crise ou pas ?

A: Très bonne question. Il y a un vrai sujet aujourd’hui, c’est que de plus en plus les tradings d’investissements financiers sur les marchés sont faits par des machines, des ordinateurs. Là, il y a deux grands types de stratégies informatiques entre guillemets. Il y a ce qu’on appelle du high frequency trading, c’est du trading à haute fréquence, où ce sont des modèles quantitatifs très sophistiqués mathématiquement qui cherchent justement, je pense, à capturer le mouvement brownien dans une journée de trading et à chaque transaction de marché. C'est-à-dire dès qu’il y a une offre et une demande dans un carnet d’ordres, il y a toujours une transaction entre l’offre et la demande et au final il y a deux hommes ou deux machines qui se mettent d’accord sur un prix. C’est fait par des hommes très souvent donc des traders ou des brokers, et là il y a des petits malins qui se disent « l’Homme est toujours imparfait donc on va rationaliser tout ça », donc on va arbitrer, à chaque transaction, la différence entre le in et le out. C’est des modèles à très très forte fréquence parce que forcément ils tournent très fréquemment dans une journée de trading, l’espérance de gain est très faible parce que forcément les trades ne sont pas très élevés, ils tournent extrêmement rapidement parce que forcément ils sont plus rapides que la machine humaine. Ce qu’il faut savoir, j’ai appris ça récemment, c’est que 40% du volume du NASDAQ aujourd’hui, c’est du high frequency trading. C’est fou ! Et là, ça pose des vrais problèmes, il y a zéro théorie fondamentale derrière, c’est de l’arbitrage quantitatif et vraiment pseudo scientifique. Donc là c’est la première stratégie, et la deuxième stratégie c’est la stratégie dite simple ou quantitative, où ce sont des modèles plus sophistiqués, qui n’ont ni le même horizon de temps, ni la même espérance de gain, ni le même rythme, où là ce sont des modèles qui cherchent en fait à capturer des tendances et à capitaliser sur ces tendances.On part du principe qu’en fait les modèles informatiques sont mieux à même que l’esprit humain pour pricer la liquidité du marché.
Petite digression pour répondre à votre question aussi, la dynamique d’un prix, c’est vrai sur les marchés financiers mais c’est aussi vrai dans tous les marchés, c’est même encore plus vrai sur les marchés banquiers qui sont plus liquides. Cette dynamique, théoriquement et empiriquement procède de deux logiques, complémentaires mais radicalement différentes : l’une qui est une logique de liquidité, c'est-à-dire que c’est la loi de l’offre et de la demande, c’est celle qui vous intéresse là vous, c’est celle que les modèles quantitatifs ont cherché à modéliser, c'est-à-dire qu’il y a une multitude de demandeurs et une multitude d’offreurs, et au final tout ce monde là se met d’accord sur un prix, qui est la liquidité et il s’agit de mécanismes plus ou moins quantifiables, c'est-à-dire qu’il y a du bruit, etc.. Donc voila, le pricing de la liquidité est très important et c’est souvent pris en compte par les modèles mathématiques, et l’autre partie c’est la partie fondamentale, ce que je fais, qui est de se dire : une société est cotée, mais on s’interroge sur la valeur fondamentale des actifs, dans la durée, on essaye d’arbitrer ces valeurs fondamentales. Donc je regarde l‘entreprise et je dis pour telles et telles raisons, cet actif là est sous valorisé, le marché aujourd’hui le valorise mal, depuis un mois ou depuis trois, voila pour quoi moi je pense différemment et voila pourquoi je pense que les gens vont corriger leur regard sur ces actifs. C’est ma démarche, la démarche fondamentale, c’est aussi vrai pour l’immobilier, c’est vrai aussi quand vous allez aux souks ou aux puces, le même produit vous pouvez le trouver à un prix différent si vous allez sur un marché aux puces ou sur ebay, au final ça dépend des marchés, donc il y a des dynamiques de liquidité, il y a des dynamiques de valorisation et de perception.
Ce sont les deux lois : il y a la valeur fondamentale de l’actif et le prix de la liquidité à l’instant t. Il est important de faire la différence entre les deux. Donc pour en revenir au sujet, les modèles quantitatifs cherchent à pricer la liquidité, donc le high frequency à très court terme et les modèles quantitatifs dits quants à plus long terme, c’est en fait pour capturer les arbitrages de liquidité dans le temps. En fait ils commencent en disant : là, le marché il boole, c'est-à-dire qu’on est dans une tendance haussière, et il y a énormément d’indications que nous donne le marché pour sentir ça : la quantité de volume tradé, la volatilité, les comportements des acteurs (car il y a énormément de statistiques sur le marché que les ordinateurs peuvent utiliser). Ensuite, ils construisent des modèles à partir de ces statistiques et en déduise des tendances, et essaye de les percevoir et de les modéliser.
Ca ce sont les modèles quantitatifs, qui peuvent agir sur des indices, qui peuvent agir sur des boites, qui peuvent agir sur des actions… Le problème que ça pose, c’est que c’est une stratégie distincte mais qui fondamentalement repose sur le même principe, qui est le problème de pricer la liquidité avec des modèles informatiques. Cela pose de gros problèmes, le high frequency, beaucoup plus que le quant parce que la high frequency pollue l’activité du marché au quotidien. Quand on nous dit que la moitié des volumes sont tradés par des machines qui n’en n’ont rien à faire de la valeur fondamentale des actifs et qui cherchent surtout à court-circuiter tous les autres intervenants pour faire un petit peu d’argent, mais au final en prenant très peu de risques, c’est très bien. Mais les problèmes que cela pose ce sont des problèmes tels qu’on en a eu d’actualité, je ne sais pas si vous avez vu ça jeudi dernier, il y a des boites aux USA qui ont perdu 80% d’un coup, pendant 2 heures.

M.H. : C’était lié à une erreur d’ordre…

A. : Exactement : à ma connaissance, il n’y a pas eu de communication officielle sur le diagnostic de cette erreur. Alors on a dit que c’était un broker chez City qui avait passé un mauvais ordre, bon ça ne tient pas la route, et en fait ce que les gens pensent de plus en plus, c’est que les modèles de high frequency ont dysfonctionné au même moment, et que tout à coup il y a eu une panique, donc les acheteurs humain se sont retirés totalement et là c’est le vide total. Donc ce qui s’est passé c’est que des actions ont perdu quasiment 100% de leur valeur en l’espace d’un quart d’heure. Et là ça pose un problème car dans les marchés il y a la liquidité et la valeur fondamentale, mais il y a aussi la psychologie, car le marché c’est aussi une masse d’hommes et de femmes qui arbitrent des actifs tradés, et quand il y a la panique ensuite, ça peut créer des phénomènes de crise, des paniques psychologiques où là il ne se passe plus rien, et toutes les hypothèses des modèles partent en vrille.
Donc le high frequency pose des gros problèmes, car quand il y a un dysfonctionnement de ce genre là, ça peut avoir des effets contagieux dramatiques. Le deuxième problème, c’est que cela pollue en permanence le marché de manière très transparente, car quand je veux passer un ordre dans le carnet d’ordre, il y a toujours une machine qui vient me contrer, qui va vouloir me court-circuiter et arbitrer mon ordre et à force de faire cela, ça crée des mécanismes malsains pour la liquidité. En effet, quand moi je vois sur le carnet d’ordres 10 000 titres à la vente ou 10 000 à l’achat, elles sont en face de moi, donc je me dis c’est super, car si j’ai 10 000 titres à la vente, et que j’en veux 10 000, je vais pouvoir les acheter, mais la machine va m’arbitrer, elle va passer un peu au dessus ou en dessous et au final je pensais que les 10 000 étaient là, mais la machine m’a décalé et va m’en faire que 500, et ils font ça à des horaires très particuliers dans le marché. Et au final, alors que j’étais sûr en passant mon ordre que la liquidité allait absorber mes 10 000 titres, au final je n’en ai que 300 qui ont été absorbés, et c’est pareil pour beaucoup d’autres intervenants, on ne comprend pas ce qu’il se passe… Donc ça crée des dysfonctionnements pas forcément toujours très sains et qui n’apporte pas non plus de liquidité et de rationalité aux marchés. Donc la high frequency pour moi, c’est bien qu’il y a en ait un peu parce que ça apporte un peu de liquidité etc, mais fondamentalement ça n’apporte rien de sain à la liquidité des marchés.
Et par contre, ça peut avoir des effets désastreux dès qu’il y a une panique de marché ou un dysfonctionnement de marché psychologique, ce qu’évidemment les machines ne comprennent pas, là la machine, il n’y a plus personne. Et les machines vont continuer à fonctionner en en fait il n’y a plus personne, et donc s’il n’y a plus personne et que les machine qui tournent…Voila. C’est ce qui s’est passé sur le NASDAQ la semaine dernière, où ça accélère les mouvements de baisse ou de hausse de manière assez brutale, et ça ce n’est pas sain. Sur les modèles quantitatifs, ils sont beaucoup plus sophistiqués, ils n’ont pas le même horizon de temps, ce n’est pas la seconde ou la milli seconde, ils n’agissent pas dans la journée, ils sont plus sur des tendances à trois mois, six mois… Le problème qu’on a vu il y a deux ans en pleine crise, ce qu’il s’est passé en fait c’est qu’au départ de la crise des subprimes, on le sait, il y a eu de gros problèmes des modèles quants, car ce que ces modèles ne pricaient pas, ou plutôt ce qu’ils pricaient mal, c’était le coût de la liquidité, c'est-à-dire qu’en 2006-2007, on était sur des tendance de marché assez peu volatiles, très liquides, où il y avait un flux d’offres et de demandes assez permanent et un appétit au risque assez constant. Les modèles de ces gens là qui capturent les tendances, encore une fois, fonctionnaient donc sur des hypothèses de marché où le coût de la liquidité était assez faible, c'est-à-dire que quand vous vouliez passer un ordre, il y a avait toujours une contrepartie fiable en face pour répondre à cet ordre là, dans un laps de temps relativement faible.
Ce qui c’est passé avec la crise des subprimes, c’est qu’à partir du mois d’août 2007, tout le monde était en vacances, encore une fois, surpondération des modèles dans le marché, crise, panique totale, et mise en place de mouvements brutaux et de bruit comme vous dites, étrangers aux modèles sur les marchés. Là tous les modèles ont réagi pareil, car tous les modèles sont conçus pareil : avec des top less, des plafonds de gestion de risque, c'est-à-dire quand vous perdez, le modèle qui gère le risque vous « … » automatiquement, donc quand le marché a perdu sur une journée d’un coup 4 ou 5%, on avait pas vu ça depuis plusieurs années, les modèles ne connaissaient pas ça, donc tous les modèles se sont mis à activer des topless et se sont mis à vendre et à dérisquer. Ils ont pricer le risque et arbitrer le risk/reward et donc il y a des mécanismes qui s’enclenchent automatiquement. Donc comme ces modèles fonctionnaient plus ou moins pareils, c'est-à-dire sur les mêmes statistiques, après évidemment ce sont des hommes qui les structurent, nous on a quelqu’un chez nous qui fait ça aussi, et chacun ensuite le structure à sa manière, avec sa vision… Au final, c’est quand même le même principe, c'est-à-dire utiliser les statistiques, utiliser le bruit du marché pour essayer de l’éradiquer et faire jouer les tendances, et comme beaucoup de ces gens là avaient les mêmes actions dans leur portefeuille et les mêmes titres à la vente et avaient des stopless plus ou moins activés au même niveau. Donc ça a amplifié brutalement sur certains titres les mouvements de baisse et les mouvements de hausse, ça a crée de très très forte volatilités sur les marchés, et voila ça a accéléré. Donc ce qui s’est passé c’est qu’on a envoyé des titres à la baisse sans raison fondamentale, car il n’y avait aucune raison que ces titres perdent 10% par rapport à d’autres et certains titres à la hausse qui sont les titres que les modèles avaient en vente pour couvrir les risques à l’achat, forcément ils les ont achetés, et donc voila sans comprendre pourquoi, pendant deux semaines, il y a des titres qui n’ont pas arrêté de monter, des titres qui n’ont pas arrêté de baisser, et là ça crée des mécanismes de distorsion des marchés.
Donc le vrai risque, pour synthétiser tout ça, c’est que tous ces modèles fonctionnent plus ou moins sur les mêmes hypothèses et sur les mêmes mécanismes. Le problème c’est quand une hypothèse qui a un risque de 1% se réalise, alors tous les modèles se mettent à fonctionner de la même façon, et là c’est très dangereux car vous faites des mécanismes de bulles des marchés, et c’est souvent dans des phases de panique, donc face à ça derrière il n’y a pas d’acheteur non plus, c’est assez déstabilisant.

M. K. : Donc finalement est ce que vous ne pensez pas que les hypothèses ne sont pas toujours présentes, donc que les hypothèses ne sont pas les bonnes, et qu’en plus, elles sont remises en causes par les modèles eux-mêmes, qui en provoquant des mouvements brutaux, remettent encore plus en cause les hypothèses ?

A : Alors non, vous faites bien de me reprendre, ce que je voulais dire en fait c’est que, pour répondre à la question de Margot, si le fait que tous les modèles fonctionnent plus ou moins sur les mêmes mécanismes théoriques, sur les mêmes statistiques, etc, ne crée pas un risque. Donc la réponse à cette question c’est oui en fait, le risque que ça crée c’est que ça accentue les phénomènes peu probables quand ils se réalisent. Mais quand les phénomènes peu probables ne se réalisent pas, donc les marchés continuent à fonctionner sur les hypothèses sous-jacentes aux modèles, quelque part tout va bien. Vous voyez ce que je veux dire…

M.K. : Oui, mais cela veut dire que ça a tendance à se produire plus fréquemment avec les nouveaux modèles…

A : Et bien comme on est en train de rentrer dans un monde de plus en plus volatile et de plus en plus incertain, clairement tout dysfonctionnement de marché est alimenté par des comportements grégaires. Parce que, l’ironie du sort, c’est que ce modèles sont censés arbitrer les comportements grégaires des traders et du marché, supposant que le marché est grégaire ce qui veut dire que quand tout le monde achète on achète et que quand tout le monde vend on vend, on fait un peu comme tout le monde, ces modèles sont censés anticiper et arbitrer ces mouvements grégaires. Justement, le principe c’est de réaliser des statistiques en se disant que l’homme va faire toujours pareil, et qu’il n’y a pas de raison qu’on réagisse différemment maintenant qu’il y a 20 ans. Le modèle enregistre les mouvements de marché sur les dix ou vingt dernières années et à partir de là quand il voit les mêmes mouvements, browniens ou non, qui se reproduisent, ils ont leur liste à valider, ils en déduisent ce qu’il faut faire. C’est intelligent, la logique elle est là. Ca ça marche très bien quand les hypothèses d’il y a 20 ans sont valides aujourd’hui. Mais quand il y a un black swan, un cygne noir, un évènement imprévu, fortement improbable et que le modèle ne l’a pas pris en compte tellement il était peu probable. Et si tous modèles n’ont pas pris en compte cet évènement improbable, c’est là que vous allez avoir un problème (car ils ne savent plus faire).

MH : En fait, ce que l’on reproche souvent au modèle brownien, c’est de sous-estimer la fréquence des évènements improbables.

A : Et bien voila, on est plein dans le sujet.

MH : Par exemple, je ne sais pas si vous voyez la courbe gaussienne, qui a des queues de distribution beaucoup trop fines. Et comme le modèle brownien repose sur la gaussienne, cela voudrait dire que la probabilité de tel évènement est très faible alors qu’en réalité, cela arrive plus souvent que ce que le prédirait le modèle. Par rapport à d’autres hypothèses mathématiques, c’est un modèle en temps continu alors que le temps n’est pas continu. Du coup, ceux qui le remettent en cause pensent qu’on pourrait faire un modèle plus proche de la réalité du marché, qui correspondrait au marché dans plus de cas.

MK : en fait que la crise ne serait pas en dehors du modèle mais à l’intérieur même.

A : En fait ce que montre cette crise, c’est que les modèles pricent mal les risques de volatilité, ça c’est clair. La question c’est comment vous faites pour identifier les scénarios des extrêmes de la courbe de Gauss ou à défaut de les identifier, en gérer les conséquences.

MH : Est-ce que vous connaissez Nicole El Karoui ?

A : Ca me dit quelque chose, oui.

MH : Elle est mathématicienne, elle travaille dans les mathématiques financières et dirige le master à Polytechnique. Elle travaille plutôt dans le funding et elle disait que ce n’était pas la même chose. Elle cherchait plutôt à s’affranchir des risques de tendances donc ce n’étaient pas les mêmes modèles, qu’on ne pouvait pas critiquer de la même manière son métier et ce qu’on l’on faisait dans les hedge funds.

A : Absolument.

MH : Elle dit qu’on peut effectivement faire d’autres modèles fondés sur les données statistiques etc pour l’investissement mais dans mon travail, ça ne peut pas marcher. Elle distingue vraiment les deux alors dans ce que vous avez dit, on dirait que c’est quand même assez lié ?

A : Non, non… . Je suis d’accord. Dans les stratégies quantitatives entre guillemets, il y a le « high frequency » qui là est purement de la modélisation aléatoire, c’est-à-dire aller plus vite que l’autre pour voir. C’est très simple comme concept : il y a une offre et une demande, moi je l’achète à 10, toi tu le vends à 11 et à un moment donné on va se mettre d’accord. Tout ce qui est pour les produits très liquides, tout ce qui est over the counter, ça marche toujours comme ça, on s’appelle et celui sui négocie le mieux ben voilà. Plus ça va être liquide, moins il va y avoir de problème. La machine, en fonction du nombre de gens qui vont être à l’achat et la vente et du carnet d’ordres, ajuste en permanence la différence : ça c’est le high frequency. Il y a zéro logique fondamentale, c’est totalement décorrélé de la nature et de la performance des actifs. Même si l‘action est en baisse, on s’en fiche : c’est très local. Les autres stratégies quant : c’est plus jouer les tendances. En effet, le high frequency, c’est vraiment s’afranchir de la tendance : c’est un monde en dehors de la tendance. C’est très local : enfin je pense que c’est très local, peut être qu’ils mettent en œuvre ensuite des stratégies plus compliquées je ne sais pas. Les stratégies quant au contraire cherchent à capturer les tendances et à les arbitrer, c’est-à-dire à isoler le bruit blanc et identifier les tendances à long terme et les jouer.
C’est récolter un tas de données statistiques et se demander finalement « pourquoi est-ce qu’on regarde les graphes ? ». En fait, on se dit « quand il y a tel évènement les gens réagissent pareil, les gens ont plus ou moins le même type d’attitudes devant le même type d’évènement et à partir de là construire des modèle statistiques pour essayer de modéliser la psychologie des gens et des marchés pour arbitrer ces mouvements de tendance. Typiquement, c’est se dire que les mouvements de masses n’ont pas de raison d’être différents aujourd’hui qu’il y a dix ou il y a trente ans et quand on arrive à comprendre des phénomènes statistiques dans le fonctionnement du marché des dernières années, il y a aucune raison qu’on les retrouve pas cette année et l’année prochaine. Donc ce que ces gens-là font, c’est par exemple, quand le marché monte : le marché peut monter, le fondamental peut avoir tendance à dire il faut vendre car quand une action prend 10%, on est content mais on peut se dire « je l’ai acheté à 100 ; elle vaut 110, j’ai réalisé mon espérance de gain devant. Derrière, ça va perdre 3% et là il faut que je commence à tout vendre vite parce que je vais perdre tout ». Mais en fait peut être que c’est que le début d’une tendance et qu’en fait, ça va reprendre 50% derrière. Regardez la bulle internet ou le cours de bourse d’Apple récemment ou pleins d’autres exemples. Les primats peuvent se dire qu’ils se contentent de 10% ou 20%, c’est très bien et le mec aura fait son boulot. Il va se dire qu’au dessus de 20%, le risque par rapport à l’investissement supplémentaire à l’instant t ne le justifie pas. Mon métier, analyste fondamentale, c’est aussi voir ces scénarios avec leurs probabilités. Sauf que ce que je vous ai dit : « c’est quoi la probabilité que l’action prenne 30% ou qu’elle perde 30% ».
Nettement, on sous-estime aussi les probabilités à l’extrême. Clairement, quand j’ai mon awaited target return, c’est-à-dire que mon target-price pondéré est atteint, je me pose la question de savoir quel est le risque. Forcément, je revisite mon espérance de gain en fonction du risque que j’ai. Si moi j’ai acheté une action 20% en dessous, je me dis : « si la probabilité qu’elle en prenne encore 30 est faible, je n’ai pas envie de remettre en jeu tous les gains que j’ai fait parc que là il y a une dissymétrie entre la probabilité de gagner un peu d’argent et la probabilité d’en perdre beaucoup. Alors que le modèle, (c’est là où la liquidité est fondamentale) se dit « ce mec a peut être raison mais les statistiques montrent que les gens se mettent à acheter des choses toujours un peu en retard ». Et le modèle va dire : «  là l’action a pris 20%, peut être qu’elle va en perdre 3, mais statistiquement on est qu’au début de la tendance ; parce que il n’y a pas beaucoup de volume par rapport à la circulation, par ce qu’elle est restée beaucoup trop de temps en place donc les gens ont mis trop de temps à réfléchir etc. Les mecs ont leurs statistiques et leurs données, font tourner leur modèle et se disent : « là c’est débile : déjà il ne va pas acheter quand moi je vais acheter parce qu’il achète que quand ça baisse et il n’achète que quand la tendance se met en place. Soit la tendance est vraiment en place, il n’achète plus.
Ce qu’essayent de faire les quant avec leur modèle est de créer des dépendances à 20, 30, 40%, à la hausse comme à la baisse, il rentre quand la tendance s’active, il reste tout au cœur de la tendance et il essaie de sortir dès que la tendance s’arrête. Et dès qu’ils ont des signaux de rupture de tendance : ils sortent automatiquement. C’est vraiment de l’arbitrage mathématique et statistique de tendance.

MK : Est-ce que pour vous le modèle influe sur le comportement des acteurs sur le marché, est-ce une tendance majoritaire ?

A : Je crois qu’il y a de plus en plus de quant (car on fait de plus en plus confiance aux modèles très rationnels sur les machines).

C’est moins pernicieux que les high frequency, enfin le problème des high frequency, c’est quand il y en a trop et que tout le monde fait la même chose : il faut soit que tout le monde trade en high frequency mais dans ce cas là, ça tuera le high frequency, soit il faut trouver un bon équilibre parce que sinon ça crée des dysfonctionnements et des risques et des problèmes d’illiquidité qui ne sont pas forcément souhaitables. Alors que la quant, à la limite, si on veut généraliser, sans faire de philo, dans la philosophie kantienne, si tout le monde a des modèles de tendance : au final il y aura moins de volatilité dans les marchés, si les hypothèses sont justes. En revanche, si les hypothèses sont fausses et qu’on se retrouve sur les queues de la gaussienne et que les actions sont mal pricées, il y en aura toujours qui seront mal pricés. En effet, qu’on le veuille ou non, le marché, c’est des hommes et des femmes et quand tout le monde fonctionne pareil, l’ironie du sort, c’est qu’en voulant arbitrer les irrégularités du marché, c’est toujours la même problématique. Au final, c’est toujours le petit malin qui ré arbitre et la machine qui va arbitrer le truc à la fin. Mais bon, cela reste aujourd’hui assez discrétionnaire, ils fournissent de la liquidité et finalement ils accompagnent les tendances d’une certaine manière donc même si ce n’est pas sur des thématiques fondamentales. Pour moi, l’investisseur idéal ou le gestionnaire idéal de marché : c’est à la fois, le prix, savoir pricer la liquidité à un instant t et savoir pricer la valeur fondamentale et le meilleur investisseur c’est celui qui sait pricer à la fois la liquidité et le fondamental. Théoriquement, ça fait appel à l’intuition humaine et le trader va vous dire « c’est l’intuition ou le feeling qui fait que vous sentez le marché ou pas ». Effectivement, il y a le jugement et l’expérience. Le modéliste scientifique va vous dire, si on parle d’expérience (et c’est vrai pour tous phénomènes d’ailleurs), l’expérience se modélise (on parle de la courbe d’expérience). C’est pour ça que les analystes très fondamentaux, qui ne comprennent pas les modélistes dans le grand débat : analyste fondamentaux qui disent que les modèles, c’est de la chance et les modélistes qui disent « vous ne vous rendez pas compte, vous croyez arbitrer les tendances mais vous êtes victimes de tendances et d’un marché qui vous dépassent ». La réalité, elle est toujours au milieu. Le fondamentaliste va dire qu’il fait appel à son expérience, et j’ai envie de lui dire que si il croit ce qu’il dit, qu’il y a une valeur à sa courbe d’expérience, il part implicitement du principe philosophique qui dit que son expérience, c’est-à-dire ce qui s’est passé ces dernières années, il en tire un enseignement qui lui permet de prendre une décision aujourd’hui et de prédire dans une certaine mesure l’avenir, avec une certaine marge d’erreur mais dans laquelle il est à l’aise. C’est implicitement le postulat qu’il fait car il dit que c’est un métier d’expérience pour être meilleur que son concurrent. A partir du moment où il part de ce principe-là, c’est-à-dire qu’il introduit la notion de statistique, à partir de là, pourquoi pas essayer de rationaliser, de quantifier justement toutes les données, toutes les informations plus ou moins inconscientes que il a accumulé pour essayer de modéliser ta courbe d’expérience. Dans ce cas là, on aura forcément un jugement plus fin, statistiquement plus fiable que, ou au moins complémentaire à l’intuition humaine. De mon point de vue personnel, ce sont deux approches complémentaires. En stratégie fondamentale, tu peux faire beaucoup d’argent. Par exemple, Warren Buffet, c’est le rôle modèle de l’analyse fondamentale. C’est quelqu’un qui, sans exagérer, il a fait ses erreurs, on se goure de temps en temps, la machine aussi… Qu’on le veuille ou pas, on pourra jamais sortir le risque d’erreur de la machine ou de le l’homme, c’est aussi statistique… Peut être que vous me direz le contraire mais je pense que ça c’est un principe de base. Après on peut le réduire, on peut l’encadrer et après il y a la chance que la probabilité seconde c’est-à-dire le degré 2 de la probabilité, la probabilité que le phénomène improbable se réalise : il y a un facteur chance là. Warren Buffet, un analyste fondamental, a, clairement avec beaucoup de succès (c’est l’homme le plus riche du monde aujourd’hui), utilisé ses jugements et en misant sur les marchés. Ca n’empêche pas qu’il utilise des produits dérivés et qu’il essaie de pricer la liquidité à se manière même si à la base, c’est un analyste très fondamental mais qui n’ignore pas le coût de la liquidité. Il y a d’autres gens comme le fonds Renaissance Capital avec Jacob Simmons, qui étaient très quantitatifs, ne recrutaient que des PhD (je parle au passé parce que il a fait 30% en 2008, il fait environ 30% par an, même en 2007 et en 2008. Là il a fait tellement d’argent qu’il a rendu tout l’argent à ses investisseurs et il ne gère plus que son argent et celui de ses associés). Lui, c’est vraiment du quantitatif, c’est-à-dire : je recrute des PhD, je modélise le mouvement des marchés, le mouvement brownien, en faisant la synthèse avec le high frequency, et j’optimise en gros le trading. C’est une analyse purement mathématique et statistique des produits de marché. Ca a fait ses preuves aussi.

MK : Vous avez parlé de cygne noir, peut être en référence au livre de Taleb, qui lui dit que ce n’est que de la chance. Vous n’êtes pas trop dans cette approche ?

A : Je suis assez dans cette approche car il dit qu’on ne peut pas éviter la chance. Et la probabilité qu’un événement improbable se réalise, vous pouvez le quantifier mais là-dessus, il y a un facteur chance ou hasard qu’on ne pourra jamais modéliser. Après, je pense que cette probabilité seconde, on peut l’encadrer, on peut la réduire au maximum. C’est passionnant ce que vous faites car c’est parfaitement à l’intersection des sciences sociales et des sciences. Il y des phénomènes comme la crise des subprimes où il y avait des signaux très forts pour sortir du marché pour l’analyse fondamentale. Quand vous voyez qu’il y a le plus gros krach immobilier aux Etats-Unis depuis 20 ans, et on le savait déjà dès 2007 avec des signaux qu’une crise financière très forte et quand vous regardez dans vos cours d’histoire les crises financières d’endettement, il était évident qu’on s’acheminait vers une période au mieux de très forte volatilité financière sinon de crise. Là-dessus, est-ce que des modèles un peu plus sophistiqués qui auraient analysé la liquidité aurait pu pricer la probabilité d’une crise ? Intuitivement, je pense que oui. En même temps, comme dit Greenspan ou Taleb, il y a toujours un facteur chance. Je pense que les modèles peuvent permettre de probabiliser plus ou moins un élément de crise car dans la finance c’est toujours les mêmes symptômes (illiquidité, endettement et phénomènes de bulles). En revanche, je pense que timer, c’est-à-dire dire à quel moment ça va se retourner, là il y a un facteur chance qui est lié à la nature humaine et qui va faire qu’un évènement débile fera que la panique ou le retournement va s’enclencher. C’est le mélange des deux : la chance, la psychologie… Mais je suis convaincu qu’une bonne analyse historique de l’histoire des marchés en observant la liquidité (souvent signe de crise) peut permettre de trouver des facteurs d’alerte. Pour aller dans ce sens là, il y avait un hedge fund, en 2006, qui trouvait que le marché était survalorisé, avait prévu la crise aux Etats-Unis, qui s’est mis à vendre sur le marché agressivement sur une analyse fondamentale totalement justifiée. Sauf que leurs investisseurs perdaient de l’argent alors que tout le monde en gagnaient grâce à la bulle donc ils leur ont dit qu’ils faisaient n’importe quoi, qu’ils ne pouvaient pas leur faire confiance dans la durée. Ils étaient juste là 6 mois trop tôt et ils ont dû faire faillite parce que leurs investisseurs sortaient leur argent de chez eux. Leur problème est qu’ils ont été incapables de timer le retournement de marché mais sur leur analyse fondamentale, ils avaient raison : manque de chance…

MK : Dernière question très pragmatique, est-ce que lors de vos études, on vous a parlé du mouvement brownien, vous avez étudié un petit peu Black et Scholes et les théories alternatives.

A : Non, peut être ceux qui ont fait des études plus poussées en mathématiques mais je ne me souviens que d’un intervenant à HEC qui avait un hedge fund qui utilisait des hypothèses de continuité. Mais on nous a dit que la brownien était le plus abondant aujourd’hui. Je crois que 70% des priceurs utilisent Black and Scholes. Mais oui il y a d’autres modèles et heureusement. Mais aujourd’hui il y a toujours l’argument de l’utilisation de masse, comme c’est le modèle le plus utilisé.

MK : est-ce que selon vous ce serait couteux de changer ses méthodes, par exemple la VaR, qui repose sur ces mêmes hypothèses ?

A : La VaR a montré ses limites aussi. Forcément, si ça n’a pas marché, c’est qu’il y avait un truc qui ne fonctionnait pas. Mais on en revient au même problème sur l’improbable auquel on ne pourra jamais se soustraire totalement. C’est important d’avoir plusieurs modèles et de les bench marker en remettant en cause les hypothèses et les revisiter régulièrement par rapport à l’environnement de marché qui peut changer de plus en plus avec le temps.