ECONOPHYSIQUE ( Le monde du 28/02/19

 

Pour Michael Benzaquen, titulaire d’une nouvelle chaire à Polytechnique consacrée à l’éconophysique, s’appuyer sur les lois de la physique permet de cerner celles de l’économie.

Propos recueillis par Florence Rosier 

  •  

 

Connaissez-vous l’éconophysique ? Le 18 février, une chaire consacrée à cette discipline intrigante était lancée par l’Ecole polytechnique, avec la société Capital Fund Management (CFM) de gestion de portefeuilles. L’éconophysique, ou comment comprendre la dynamique des systèmes économiques en s’aidant de la démarche des physiciens, experts des systèmes complexes.

Pour mieux saisir cette approche, revenons trente ans en arrière. Le 19 octobre 1987, la Bourse de New York subissait le pire krach de son histoire. « L’indice Dow Jones a chuté de 22,6 %, remettant brutalement en cause plusieurs dogmes de l’économie et de la finance théoriques », raconte Jean-Philippe Bouchaud, physicien, président et directeur de la recherche de CFM – un des pionniers de l’éconophysique. Fait stupéfiant : hormis le fameux krach, ce jour funeste n’a été marqué par aucun événement notable. La nature apparemment endogène de cet effondrement « heurtait de plein fouet le mythe des “marchés efficients” », c’est-à-dire rationnels. Par contraste, « elle résonnait avec la phénoménologie des systèmes complexes étudiés par les physiciens ».

Ironie de l’histoire, quelques semaines plus tôt se tenait une singulière rencontre au sommet. A l’invitation de deux experts de renom, l’économiste Kenneth Arrow et le physicien Philip Anderson, elle réunissait à Santa Fe (Etats-Unis) un petit noyau d’économistes, de physiciens, de biologistes et d’informaticiens. « On fait souvent remonter la naissance de l’éconophysique à cette conférence de 1987 », dit Jean-Philippe Bouchaud.

Les progrès spectaculaires réalisés dans la physique des systèmes complexes (fluides turbulents, verres de spin…), depuis les années 1970, se prêtaient au rapprochement de l’économie et de la physique, qui semble connaître aujourd’hui un succès grandissant. Rencontre avec Michael Benzaquen, directeur de cette nouvelle chaire, chercheur CNRS au Laboratoire d’hydrodynamique de l’Ecole polytechnique, où il est aussi professeur affilié au département d’économie.

Pourquoi est-ce le « bon moment » pour lancer cette chaire ?

En éconophysique, la réalité est d’abord retranscrite en modèles mathématiques. Ces modèles conduisent à des prédictions qui sont ensuite confrontées à la réalité. Aujourd’hui, les données massives issues des marchés financiers nous offrent un terrain de jeu d’une puissance et d’une précision inégalées pour tester ces modèles. Les rapprochements féconds entre économistes et physiciens germent d’ailleurs un peu partout, notamment en Italie et au Royaume-Uni. Et cette approche attire de nombreux étudiants.

Les modèles classiques peinent à décrire la complexité du monde socio-économique. Pour quelles raisons ?

Dans ces modèles classiques, les systèmes économiques sont supposés linéaires : une petite cause produit toujours un petit effet, une grande cause un grand effet. On fait comme si ces systèmes étaient toujours à l’équilibre. De plus, les agents qui interviennent sont jugés infiniment rationnels, homogènes, toujours bien informés et indépendants (l’environnement ne les atteint pas). Ce concept « d’agent représentatif » est très confortable : il permet d’extrapoler d’une intelligence individuelle à une intelligence collective. Mais la réalité contredit ces élégants modèles mathématiques. Quand leurs prédictions sont confrontées aux big data des marchés financiers, ça ne marche pas ! Certes, la crise de 2008 a entraîné une prise de conscience des insuffisances de ces modèles. Nombreux sont pourtant les mathématiciens et les économistes qui ne veulent pas les lâcher.

Comment mieux modéliser la complexité du monde économique ?

Il faut tenir compte de cette complexité. Les systèmes économiques sont fortement non linéaires : de petites causes peuvent produire des effets dramatiques, comme des krachs financiers. C’est « l’effet papillon » – le battement d’ailes d’un papillon au Brésil peut provoquer une tornade au Texas. De plus, ces systèmes sont souvent instables, hors d’équilibre. Cela évoque les transitions de phase qui se produisent dans les milieux complexes. Un changement minime de température peut soudain transformer une piscine en bloc de glace. De même, un tout petit changement sur un taux d’intérêt peut faire basculer dans un régime de crise. Autre difficulté : les agents qui interviennent dans le monde économique sont irrationnels, hétérogènes et partiellement informés. Ils sont aussi très connectés et influencés les uns par les autres. C’est évidemment moins confortable.

« More is different », relevait Philip Anderson, Prix Nobel de physique en 1977. « Plus », ce n’est pas juste la somme de comportements individuels : c’est l’émergence d’un comportement collectif différent. Comment une nuée de 10 000 étourneaux change-t-elle brusquement de direction, sans leader à sa tête ? Relier les comportements microscopiques (individuels) aux comportements macroscopiques (collectifs) : telle est la raison d’être de la physique statistique. Et de l’éconophysique.

Comment votre démarche s’inspire-t-elle de la physique expérimentale ?

Je viens de la mécanique des fluides – c’était l’objet de ma thèse de doctorat. Dans ce domaine, les « lois de l’univers » sont connues depuis deux siècles : les équations de Navier-Stokes décrivent bien les mouvements des fluides. Cela fait deux cents ans que les physiciens les testent, et deux cents ans qu’elles collent à la réalité. Mais ces équations non linéaires sont infiniment complexes : elles ont une infinité de solutions que les maths peinent encore à résoudre. Grâce au numérique, on est parvenu à leur trouver de nouvelles solutions, à comprendre de nouvelles choses. L’impact est majeur pour l’industrie navale, les énergies renouvelables (éoliennes…)… En éconophysique, en revanche, nous ne disposons pas du tout des « lois de l’univers ». Nous ne sommes d’ailleurs pas sûrs qu’elles existent, mais nous en recherchons.

L’éconophysique pourrait-elle prévoir des krachs financiers aux effets dévastateurs ?

Il serait prétentieux de l’affirmer, mais c’est un espoir. Prenons l’exemple d’une crise de liquidité, ou flash crash [« krach éclair »]. Une telle crise survient lorsque le carnet d’ordres de vente d’un produit se vide en quelques instants. Plus personne ne veut ni acheter ni vendre. Plus personne ne sait ce que vaut un produit. Il s’ensuit un effet d’avalanche sur tout le marché.

Le 6 mai 2010, a eu lieu le plus gros flash crash de la décennie. En quelques minutes, tout le marché américain a perdu 10 % à 20 % de sa valeur. Que s’est-il passé ? Aujourd’hui encore, rien ne l’explique. Ce n’est ni à la suite d’une déclaration fracassante de Donald Trump ni à cause du Brexit ou de tout autre événement extérieur. On sait que 90 % à 95 % des variations de prix, sur les marchés, ne sont pas liées à un événement externe. Presque toujours, ces crises de liquidité sont de nature endogène.

Sur ce problème des crises de liquidité, comment intervenez-vous ?

Un de mes étudiants, Antoine Fosset, démarre une thèse sur le sujet. Jusqu’ici, les modèles classiques, pour la dynamique du carnet d’ordres, utilisent des taux constants d’évènements (dépositions, annulation…). Nous testons un nouveau modèle qui rend ces taux dépendant du passé : il intègre des boucles de rétroaction pour rendre compte des comportements des agents. Le taux d’annulation des ordres, par exemple, augmente si le prix passé a beaucoup fluctué.

Avec ce modèle, nous sommes parvenus à mettre en avant une transition de phase. En dessous d’une certaine intensité de rétroaction, tout est stable. Mais dès qu’un certain seuil (« point critique ») est franchi, des crises de liquidité se produisent à répétition. Nous avons calibré ce modèle sur les données du marché. Et passé beaucoup de temps à vérifier qu’il colle avec les données réelles. Puis nous nous sommes interrogés : dans quel régime se situe le marché réel ? Eh bien, il se trouve du côté du régime stable, mais pas très loin du point critique. A cause des fluctuations et de l’hétérogénéité inhérentes aux systèmes complexes, il bascule parfois dans un régime de crise.

Votre approche concerne aussi la macroéconomie. Un exemple, dans le domaine de l’urbanisme ?

Prenons une ville de taille moyenne où l’espace n’est pas compté. En matière d’occupation des logements, une personne n’est contente que si son quartier est à moitié habité. S’il est trop vide, il n’y a pas assez de commerces, d’écoles, de services… S’il est trop rempli, il y a la queue partout ! Ici, la règle individuelle d’optimisation est connue. Pour autant, quand on fait tourner un modèle avec cette règle, on n’arrive jamais à une occupation collective optimale. Faisons maintenant une incursion du côté de la physique. Un métal est constitué d’atomes : chaque atome a son petit aimant. En dessous d’un certain seuil de température, tous ces petits aimants s’alignent dans la même direction. Dès qu’on dépasse une certaine température, les aimants pointent dans toutes les directions, si bien qu’il n’y a plus d’aimantation globale. La nature de cette transition de phase dépend beaucoup de la portée des interactions entre aimants : s’alignent-ils uniquement avec leur plus proche voisin, ou aussi avec leurs « collègues » plus distants ? Revenons à l’occupation des logements. Pour qu’une personne soit contente, faut-il que la moitié des logements de son immeuble soient occupés ? Ou la moitié des logements de sa rue ? Un parallèle peut probablement être fait entre la portée des interactions entre aimants et le marché de l’immobilier, qui assure la communication entre agents distants.

Vous citez un problème d’apparence triviale en macroéconomie : comment trouver le meilleur restaurant de Paris ?

En théorie, pour trouver le « meilleur restaurant » de cuisine traditionnelle à Paris, il faudrait avoir testé les 5 738 établissements de la ville. Chose impossible, ou il faudrait dix ans. Entre-temps, les chefs auront changé, des enseignes auront disparu… On est ici en permanence dans un état hors d’équilibre. Dans la réalité, tout le monde se coince dans un « maximum local d’utilité ». Et l’on s’autopersuade que ce choix est le meilleur pour nous.

Autre exemple : les réseaux d’entreprises…

Ici, l’enjeu est d’analyser les réseaux interentreprises sur les marchés internationaux. Isabelle Méjean, professeure associée d’économie à l’Ecole polytechnique, se consacre à ces questions complexes. Ces vingt dernières années, on a assisté à une accélération très forte de la fragmentation des organisations productives, de plus en plus complexes et internationales – avec leurs réseaux étendus de fournisseurs et de sous-traitants. La firme Boeing en offre un exemple frappant. Quelles sont – selon leur taille et leurs réseaux – les firmes les plus résilientes ou les plus vulnérables, face aux chocs et aux crises ? Les outils de la théorie des graphes et des réseaux aident à appréhender ces questions. L’impact est évidemment crucial, en termes de conduite optimale des entreprises. Mais une grande difficulté, en macroéconomie, est de récolter des données pertinentes pour tester nos modèles.

Une crise comme la faillite de Lehman Brothers, qui, en 2008, a précipité dans la misère des millions de foyers modestes, pourrait-elle se reproduire ?

Il existe toujours une hypermathématisation des produits financiers qui permet de masquer le risque. Peut-être y a-t-il un peu moins de produits dérivés. Mais, sur le fond, aucun changement satisfaisant n’a été opéré. Et puis les banques centrales continuent d’utiliser le concept « d’agent représentatif » (un foyer, une société…) – homogène, rationnel et bien informé, indépendant. C’est effrayant de voir comment les hypothèses utilisées pour faciliter la construction des modèles mathématiques sont irréalistes ! Le problème est qu’on a beaucoup trop fait confiance à ces modèles.

Florence Rosier (propos recueillis par)