Loading...
Opinions

Stagnation, BRI versus Summers

stagnation

BRI versus Summers

stagnation

Par Henri Lepage

Créée en 1930, la Banque des règlements internationaux (BRI) est la plus ancienne des organisations financières internationales. Localisée à Bâle, elle abrite une équipe d’économistes de talents dont les travaux, dans le contexte économique actuel, méritent d’être plus largement connus et commentés. Leur signe distinctif : débusquer les trop nombreux anachronismes théoriques qui encombrent la pensée économique institutionnelle et l’empêchent d’intégrer les nouvelles réalités d’une économie internationale transfigurée par la mondialisation. Il n’est pas interdit d’imaginer que c’est dans leur laboratoire que s’élabore la nouvelle pensée macroéconomique de l’univers mondialisé du XXIe siècle.

Il y a dix ans, au sortir de la grande récession, la conviction de tous les experts était que les pertes de la crise devaient être rapidement absorbées par une courte période de forte reprise (au plus en deux ans), comme cela se passait régulièrement avant. L’économiste américain Kenneth Rogoff venait de publier une étude magistrale où, avec sa femme Carmen Reinhart, elle aussi professeur à Harvard, il montrait, à partir d’une analyse de toutes les crises financières dans le monde depuis la guerre, que plus la récession était prononcée, plus la reprise qui suivait devait être forte1. Personne ne doutait que le même schéma allait se reproduire. Pourquoi en aurait-il été autrement ?

Mais ce n’est pas ce qui s’est passé. La reprise miracle tant attendue n’est jamais arrivée. La croissance est redevenue positive, mais à un rythme léthargique. En moyenne, depuis la crise, le taux de croissance US a été divisé par deux. En Europe, à part l’Allemagne, la déception a été encore plus grande : le PIB de la zone euro n’a retrouvé son niveau de 2007 qu’en 2016, soit neuf ans après le déclenchement de la crise (contre six ans pour les USA).

Plus parlante encore est la comparaison avec les années trente : combien savent que, malgré l’ampleur sans commune mesure du recul de la production européenne, celle-ci avait retrouvé son niveau de 1929 dès l’année 1935 ! Et qu’aux États-Unis, la reprise entre 1933 et 1941 s’était faite sur un rythme deux fois plus rapide que la croissance moyenne des années 2009 – 2017 (et cela malgré la rechute de 1937) ! A l’aune de ces comparaisons, la période d’après-crise ressemble de plus en plus à ce qu’il faut bien appeler une quasi-stagnation, une grande panne, voire – n’ayons pas peur du terme – une dépression larvée, comme en témoignent les conséquences politiques (la montée des contestation populistes).

stagnation

Pourquoi une croissance en panne ?

A  deux occasions, en  2011 et fin 2014, les américains ont cru que c’était arrivé, que la reprise tant désirée était vraiment en train de s’amorcer. Mais cela n’a jamais duré longtemps. Après l’élection de Donald Trump fin 2016, le climat économique s’était  de nouveau nettement retourné. Pour la première fois depuis longtemps les européens sont alors, eux aussi, redevenus optimistes. Fin 2017, c’était même quasiment l’euphorie. Pour la première fois depuis très longtemps, nous disait-on, on assiste enfin à une reprise mondiale synchronisée. Même les chinois se mettaient de la partie. Jusqu’à fin 2018, les médias n’ont jamais été avares d’expression dithyrambique pour décrire l’ « insolente santé » de l’économie US qui connaissait – au moins en nombre de mois – la période d’expansion la plus longue de son histoire. Et puis, soudain, patatras ! De nouveau, à la surprise générale, de manière totalement non anticipée, changement de ton et de cap très brutal : depuis l’automne dernier l’activité mondiale est en plein ralentissement, une décélération qui, au mois de juin 2019, ne semblait toujours pas en voie de s’atténuer, accompagnée de signaux laissant entrevoir pour la fin 2019 une nouvelle panne de croissance sans doute plus sévère que la quasi-récession qui a marqué l’année 2016. La vraie reprise, la grande reprise, tant attendue et toujours annoncée, n’est toujours pas au rendez-vous. C’est la troisième fois que cela se produit en dix ans. Tout se passe comme si, depuis la crise, la croissance, dès qu’elle semble prendre quelque consistance, se heurtait désormais à un plafond indépassable qui l’étouffe aussitôt.

Pourquoi n’arrive-t-on pas à sortir de ce long épisode de mini-croissance et mini-cycles ? Quelle est la nature de ce plafond de verre qui casse ainsi tous les espoirs de reflation durable ?

L’explication la plus en vogue depuis quelques années est celle de la stagnation séculaire (secular stagnation) proposée par l’ancien conseiller économique du Président Bill Clinton, le professeur Lawrence Summers2.

Le thème n’est pas tout à fait nouveau. Summers reprend une vieille idée formulée par l’économiste américain Alvin Hansen dans les années trente – plus précisément, au lendemain de la rechute de 1937. Alvin Hansen est l’homme par qui la vulgarisation des idées de John Maynard Keynes s’est faite dans le monde anglo-saxon. A ce titre, c’est un personnage important, bien que peu connu, dans l’histoire des idées économiques.

stagnation

La stagnation séculaire selon Lawrence Summers

Sa théorie était que la grande stagnation de l’entre-deux-guerres était une conséquence structurelle de l’épuisement des trois grands moteurs de la croissance américaine au XIXè siècle : 1. l’expansion territoriale, 2. la croissance démographique, 3. l’innovation technologique. A ses yeux les rigueurs de la dépression annonçaient la fin du miracle de la croissance portée par l’économie capitaliste.
Avec le retour de l’expansion économique après la fin de la guerre et durant les années cinquante, ses prédictions sont tombées dans l’oubli, et on n’en a plus jamais parlé. Du moins jusqu’en 2013, année où Lawrence Summers remet sa théorie à la mode en arguant que, s’il s’est apparemment trompé, c’est simplement parce qu’il avait plusieurs générations d’avance.

Pour Summers le fait économique le plus important de notre époque, celui qui commande tout et sans lequel ce que nous vivons depuis 2007 ne serait jamais arrivé, est la baisse tendancielle des taux d’intérêt. Celle-ci pré-date très largement les événements de 2008. Si les taux sont aujourd’hui quasiment à zéro, c’est l’aboutissement d’une longue évolution que les réactions des banques centrales à la crise ont certes accompagnée mais qui, en fait, a débuté dès la fin des années quatre-vingt, et qui est le produit de trois facteurs structurels de long terme : 1. le vieillissement de la population et la baisse de la natalité ; 2. l’accroissement des inégalités de revenus et de patrimoine (cf. Thomas Piketty) ; 3. la baisse du coût relatif du capital (liée notamment au développement des nouvelles industries technologiques à coûts marginaux quasiment nul, type Apple ou Google). A quoi il faudrait ajouter un quatrième élément dont Summers ne parle pas directement, mais qui constitue l’argument central d’une variante de sa théorie : le ralentissement depuis les années soixante-dix des progrès de la productivité, statistiquement documenté par le professeur Robert Gordon de North Western University qui y voit la confirmation de l’hypothèse d’Hansen sur l’épuisement des effets bénéfiques de la technologie (malgré tous les espoirs suscités par l’essor des technologies modernes de l’électronique, de l’informatique, des bio et nano-technologies, etc.)3.

Raisonnant en termes spécifiquement keynésiens, Summers considère que cette combinaison de facteurs longs entraîne un déficit structurel de la demande globale qui commande la croissance des économies modernes, et qui devrait perdurer bien au-delà de nos simples horizons conjoncturels. Ce déficit est resté pendant longtemps camouflé par un endettement croissant des ménages, des entreprises et des pouvoirs publics qui entretenait artificiellement leurs consommations (et donc l’emploi), mais au prix de déséquilibres financiers colossaux qui rendaient inévitables l’éclatement de la bulle. En théorie la crise aurait dû permettre, par le jeu des taux d’intérêt, de remettre les compteurs à zéro (reset comme le disent les anglo-saxons) et autoriser ainsi un nouveau départ. Mais ce mécanisme s’est trouvé neutralisé par le niveau excessivement bas auquel se trouvaient déjà les taux.

Summers se réfère ici à un concept central du modèle de représentation économique conventionnel hérité des travaux de l’économiste suédois Knut Wicksell, au début du XXè siècle. Il s’agit de la référence à l’existence d’un taux d’intérêt naturel hypothétique qui permettrait de définir l’état d’équilibre de l’économie correspondant à un processus de croissance considéré comme normal (plein emploi des ressources sans entraînement inflationniste) ; et, partant de là, d’en déduire dans quel sens il conviendrait d’agir sur les taux soit pour freiner l’économie (lorsque les taux observés sont inférieurs au taux naturel, auquel cas il faut les relever), soit pour la relancer (lorsque les taux observés lui sont supérieurs, et qu’il faut les baisser)4.

La difficulté est cependant que nous n’avons aucun moyen empirique pour nous dire avec précision à quel niveau se situe ce taux idéal qui sert, en quelque sorte, de boussole à la politique monétaire. Pour la contourner, les banques centrales ont donc développé une règle selon laquelle c’est l’inflation qui nous donne la réponse : si celle-ci tend à augmenter, c’est que les taux sont trop bas ; si elle tend à baisser et à se rapprocher elle-même de zéro – ou pire : passer en négatif, ce que l’on nomme déflation –, c’est que les taux sont trop hauts.

Malheureusement ce mécanisme ne fonctionne pas lorsque les taux nominaux sont déjà presque à zéro comme c’était le cas au sortir de la grande récession, et qu’en plus le rythme de l’inflation continue de décroître. D’un côté, nous avons une inflation très basse et en diminution dont la théorie nous dit que, pour la croissance, cela est signe de taux trop élevés, plus élevés que le taux naturel de référence, et qu’il faudrait donc encore les baisser. Mais de l’autre nous avons des taux qui sont à zéro et que l’on ne peut pas baisser davantage car s’ils devenaient négatifs les acteurs économiques trouveraient désormais plus intéressant de stocker des billets de banque dans leurs coffres ou sous leurs matelas plutôt que de contribuer au financement de l’économie en accordant aux entreprises des prêts qui leur coûteraient en définitive de l’argent. Depuis Keynes on appelle cela une trappe à liquidité.

La situation est bloquée. L’économie se trouve alors coincée dans une double dynamique négative de faible inflation et de stagnation durable pour la correction de laquelle les outils traditionnels d’action monétaire s’avèrent inutilisables ; avec la menace d’une dérive vers un processus apocalyptique de déflation cumulative auto-entretenue selon le célèbre schéma décrit dans les années trente par Stanley Fischer (debt deflation)5. Dans de telles circonstances (qui, nous dit Summers, s’appliquent à l’état dans lequel les économies capitalistes développées se sont installées depuis la crise), il n’y a plus qu’une solution possible : mobiliser tous les moyens des États en matière de grands travaux et d’investissements publics massifs pour relancer la demande globale et revenir à des rythmes d’inflation plus élevés qui permettraient de sortir du double piège de la trappe à liquidité et de l’endettement excessif. En l’absence d’une telle politique, il ne faut pas espérer de miracle : le risque d’une nouvelle crise financière, encore plus brutale et profonde, perdurera ; en tout état de cause le monde devra s’accoutumer à un nouvel univers durable (secular) de croissance lente.

Tel serait, selon Summers et ceux qui partagent ses analyses (entre autres le Prix Nobel Paul Krugman) le scénario qui rendrait le mieux compte de la profonde rupture économique observée depuis les événements de la grande crise financière.

stagnation

Un édifice intellectuel problématique

Ce n’est qu’une hypothèse, mais une hypothèse dont l’empreinte sur les milieux décisionnaires progresse rapidement. C’est ce qui ressort par exemple des prévisions à moyen terme publiées par le Congress Budget Office américain ainsi que celles du Federal Reserve Board. Il semble bien que, sans faire de bruit, en révisant à la baisse  d’année en année leurs évaluations de croissance potentielle pour les dix années suivantes, leurs experts se soient ralliés à une vision de l’avenir fortement influencée par les thèses de la stagnation séculaire. Même la vénérable Banque de France, en 2017, a organisé un colloque consacré à ce thème6.
Cette vision des choses fait pourtant l’objet de vives controverses qui se manifestent à travers les travaux des économistes de la Banque des Règlements Internationaux (la banque des banques centrales, localisée à Bâle)7, ou encore dans les arguments que les techno-optimistes, tels les professeurs Barry Einchengreen8 et Erik Brynjolfsson9, opposent aux inquiétantes analyses de Robert Gordon.

La plupart des critiques concernent la fiabilité des chiffres utilisés pour mesurer les progrès de la productivité. Ainsi que le documente de manière remarquable Jean-Pierre Chamoux dans son dernier ouvrage « L’ère du numérique10 », l’essor d’Internet, des réseaux et des industries de l’information, la dématérialisation des services rendus par les produits relationnels qui meublent désormais notre univers, la place centrale des activités liées à l’économie de la connaissance… tout cela bouleverse complètement les données et les habitudes de pensée d’un univers statistique historiquement lié aux structures et mécanismes de fonctionnement d’une société industrielle. Dans ce nouvel univers, il n’est plus certain que les vieux outils de mesure et de comptabilité progressivement mis au point pour donner un contenu quantitatif à des concepts aussi basiques que la valeur, la production, l’évolution des prix, l’investissement, la productivité, etc. soient adaptés aux nouvelles donnes du monde post-industriel et continuent de nous donner une image fiable de sa réalité économique. Ce qui conduit, comme le soulignent les auteurs d’une étude de la Brookings Institution, à ce que l’on est sérieusement en droit de se poser des questions sur la fiabilité des données de la productivité sur lesquelles se fondent Gordon et Summers pour asseoir leur hypothèse, sinon de fin du progrès technologique, du moins de son affaiblissement tendanciel de long terme11. La vérité ne serait-elle pas plus proche du sentiment contraire que nous avons généralement d’une profonde accélération de l’impact des nouvelles technologies sur notre environnement et nos modes de vie ?

La critique la plus fondamentale concerne cependant la nature même du logiciel interne qui informe le déroulement du narratif conçu par Summers. Celui-ci s’inscrit dans le droit fil du modèle de représentation post-keynésien qui, depuis l’armistice intervenue au cours des années quatre-vingt entre les keynésiens pur jus de l’après-guerre et leurs adversaires monétaristes, détermine l’essentiel de la pensée économique contemporaine, notamment l’architecture des gigantesques modèles économétriques qui, depuis cette époque, règnent en maîtres dans les organismes publics de prévision économique (comme la Fed) et les départements de recherche des grandes universités occidentales. Or cette économie mainstream repose sur un certain nombre d’hypothèses qui, quoique faisant généralement l’objet d’un authentique consensus scientifique de la part des milieux académiques, se trouvent aujourd’hui contestées, non seulement par des chercheurs porteurs d’un paradigme rival, mais également par des équipes – comme celle de la BRI – dont les travaux s’inscrivent pourtant dans le cadre interne de sa matrice disciplinaire12.

L’une de ces croyances est, par exemple, celle qui concerne le principe dit de neutralité de la monnaie. Le postulat des modèles contemporains est que les effets de la politique monétaire sont, par essence, de nature transitoire et donc que la dynamique des processus économiques à moyen et long terme dépend exclusivement du jeu de variables dites réelles (type démographie, investissement, épargne, productivité…). Ce qui explique que les modèles de simulation macroéconomique de cette génération, même les plus complexes et les plus détaillés, n’accordent en général aucune attention à la prise en compte de données financières qui pourtant, dans la vie active des entreprises, occupent une place si essentielle. La finance et la monnaie n’y sont conçues que des comme des artefacts voilant temporairement ce qui relève du véritable déroulement de la dynamique économique, et n’en faisant pas partie intégrante.

La leçon de la dernière grande crise financière est qu’une telle attitude n’est plus tenable. C’est ainsi que, depuis une dizaine d’années, les équipes du département d’analyses économiques et monétaires de la Banque des Règlements Internationaux ont entrepris d’étudier s’il était possible d’enrichir et d’améliorer les modèles de prévision économétrique en y incluant des équations de données monétaires et financières portant sur l’évolution du crédit, l’endettement des ménages, les prix des actifs (en particulier ceux de l’immobilier), la structure et l’évolution des bilans bancaires, ou encore l’exposition du système bancaire et non bancaire à des dettes et créances libellées en monnaies étrangères. Ces travaux ont débouché sur des essais de simulation réussis démontrant que de tels modèles auraient permis d’identifier à l’avance la montée des déséquilibres financiers de plus en plus massifs qui ont déclenché la crise – laissant ainsi le temps de prendre des dispositions qui auraient peut-être atténué la brutalité et l’ampleur du retournement des années 2007 – 200813.

Ceci est en soi un résultat remarquable. Mais ce qui l’est encore davantage est que ces travaux ont entraîné l’accumulation d’une masse considérable de données dont l’analyse et le traitement tendent à révéler le caractère pour le moins problématique (pour ne pas dire plus) des piliers intellectuels – tant théoriques qu’empiriques – sur lesquels s’appuie le scénario de la stagnation séculaire à la Summers.

stagnation

Une critique sans concession

C’est par exemple le cas du concept de taux d’intérêt naturel dont nous avons vu qu’il s’agit d’une valeur purement virtuelle, que l’on ne peut pas mesurer directement, sinon par la voie de calculs complexes déduits d’un modèle théorique.
Les travaux des économistes de Bâle montrent que lorsqu’on reprend les procédures d’évaluation à partir d’un modèle économétrique incorporant les indicateurs monétaires et financiers qu’il ont mis au point pour en enrichir la portée, le résultat obtenu est très différent des chiffres habituellement avancés par les spécialistes de la question : le taux naturel serait très sensiblement supérieur, et en aucun cas ne serait négatif comme cela fut notamment affirmé par Janet Yellen sur la foi de travaux commissionnés par la Fed de San Francisco14. Ce qui veut dire que l’effet Trappe à liquidité, qui joue un rôle si central tant dans les arguments de Summers que dans ceux des banques centrales pour justifier leurs choix de politique monétaire (notamment leurs opérations de Quantitative easing), serait en fait beaucoup moins contraignant qu’on ne l’imagine habituellement.

Mais leur critique va plus loin et est d’une nature plus fondamentale. Dans une conférence présentée à Londres en septembre 2017, le leader du groupe, Claudio Borio, a révélé les résultats d’une autre étude alors non encore publiée visant à vérifier empiriquement sur près d’un siècle et demi, et sur un échantillon de 19 pays, si les seuls facteurs quantitatifs que sont la démographie, la croissance, la productivité, les inégalités de revenus, le prix relatif du capital et son produit marginal… suffisaient pour rendre compte de l’évolution des taux d’intérêt réels sur la longue période15. Cette hypothèse est essentielle pour confirmer le statut épistémologique du postulat sur lequel repose toute la construction théorique néo-keynésienne contemporaine : à savoir qu’il existerait bel et bien un taux d’intérêt abstrait qui, dans la longue période (disons une dizaine d’années), jouerait un rôle de pôle attracteur vers lequel convergeraient in fine tous les taux. Cette relation fonctionne relativement bien si l’on prend comme point de départ de l’observation les années 1980, période où s’amorce l’actuel mouvement long de baisse des taux jusqu’à nos jours. Or elle disparaît complètement dès que l’on passe à la très très longue période. A cette échelle il n’existe aucune constante qui ferait apparaître, par-delà les régimes et les différentes politiques monétaires qui se succèdent, des épisodes répétitifs de convergence (et de divergence). Il n’y a aucune correspondance statistiquement significative entre les facteurs cités et l’évolution des taux réels (hors inflation). Ce qui conduit Claudio Borio à mettre franchement en doute l’utilité même du concept et à y dénoncer l’exemple parfait d’une construction théorique de nature essentiellement circulaire qui ne saurait raisonnablement servir de fondement à une politique concrète.
Si Borio et ses collaborateurs ont raison, c’est plus qu’une pierre, mais un véritable rocher jeté au cœur même de l’arbre de décision (les algorithmes) dont dépend le fonctionnement du tableau de commandes des banques centrales : c’est une révélation, une découverte qui ruine notamment les arguments de tous ces experts pourtant bardés de diplômes, mais aussi de certitudes qui, comme Kenneth Rogoff, voudraient qu’elles interdisent le cash pour récupérer des capacités d’actions perdues. Et c’est toute la rationalité apparemment rigoureuse de la démonstration de Summers qui s’effondre avec, dans la foulée, la remise en cause de la pertinence de bien d’autres concepts clés de l’appareil de pensée et d’analyse traditionnel des banques centrales.

stagnation

Adieu aux vaches sacrées du keynésianisme

Par exemple, la célèbre Courbe de Phillips dont il n’est que de lire les comptes rendus des réunions du FOMC, l’organisme interne dont dépendent toutes les grandes orientations monétaires de la Fed américaine, ou les déclarations de son Président (hier Yellen, aujourd’hui Jerome Powell), pour constater à quel point elle occupe plus que jamais une place essentielle dans la conception des politiques économiques contemporaines. C’est logique. A partir du moment où l’hypothèse d’un taux d’intérêt naturel sert d’ancrage à la politique des taux, et que l’on définit ce taux naturel par référence à une hypothétique situation de plein emploi, encore faut-il disposer d’un outil qui dise comment l’économie se situe effectivement par rapport à cet objectif. Cet outil c’est la courbe de Phillips qui le fournit par la relation qu’elle établit entre emploi et inflation16. Mais encore faut-il que cette relation soit fiable. Or l’équipe de la BRI a mené d’autres travaux centrés sur les pays membres du G7 qui révèlent que si on peut effectivement, en cherchant bien, trouver les traces d’une telle relation, celle-ci se révèle être en réalité de plus en plus ténue, et même carrément élusive, lorsqu’on analyse les données des vingt dernières années (principalement une conséquence de la mondialisation)17.

Il en va de même de cet article de foi qui, traditionnellement, fait de la déflation l’épouvantail par excellence de tous les économistes contemporains, Summers compris. Est-il vrai que toute baisse des prix est nécessairement une malédiction pour la croissance ? Absolument pas, répondent les économistes de la BRI en s’appuyant sur un énorme travail inédit de recherche historique portant sur plus de 140 années et couvrant 38 pays18. Il n’existe que des indices extrêmement faibles de corrélation liant décroissance et déflation, sauf pour la Grande dépression des années trente dont le traumatisme continue de hanter les mémoires de nos contemporains. La liaison est ambigüe et n’a rien d’automatique. Quant au célèbre processus de déflation par la dette dû à Irving Fisher, ils n’en trouvent pas davantage de preuve empirique, même pour la période de la Grande Crise19. Tant pis pour les vaches les plus sacrées de la pensée mainstream. A Bâle, la priorité va à la discipline de la recherche empirique qui, certes, n’est jamais définitive mais qui ne veut pas se laisser impressionner par les oukases d’une pensée politiquement correcte, même lorsqu’elle s’exprime par la voie des plus hautes personnalités de la profession.

A cet égard il vaut la peine de souligner qu’ils n’hésitent pas à reprendre à leur compte la distinction faite par les économistes non keynésiens de type Hayékien entre bonnes et mauvaises baisses de prix, les bonnes déflations étant celles qui résultent de gains de productivité exceptionnellement élevés. On trouve dans les travaux et conférences de Claudio Borio un certain nombre de références aux écrits du Friedrich Hayek ainsi qu’à d’autres sources liées à l’École d’économie dite « autrichienne » (Austrian Economics). Ce détail mérite d’être signalé tant cela est rarissime chez les économistes institutionnels évoluant dans la mouvance de l’économie mainstream ; un détail qui témoigne d’une ouverture d’esprit et de la pensée plutôt exceptionnelle dans ce milieu. Il n’est pas courant de voir des économistes de niveau et de réputation internationale afficher ainsi ce qui les relie à l’héritage de cette école de pensée libérale le plus souvent démonisée par la majorité de leurs collègues. Cela concerne notamment leur approche de la théorie des taux, ou encore les points de recoupement entre leur théorie du cycle financier et le concept autrichien de « malinvestissement 20 ».

Autre exemple particulièrement significatif de leur non conformisme : la remise en cause de cette notion d’excès mondial d’épargne (Global savings glut) qui joue un si grand rôle dans le système d’interprétation macroéconomique auquel se réfèrent Summers et la classique triplette des gouverneurs de la Fed (Alan Greenspan, Ben Bernanke, et Yellen). Le problème de cette théorie est qu’elle est étroitement liée à une conception de l’économie internationale fondée sur des conventions économiques, comptables et juridiques qui ne sont plus en phase avec la réalité du monde issu de la mondialisation tant financière qu’économique21. Les économistes qui s’en réclament continuent de raisonner en fonction de modèles où tout se réduit à des problèmes de balances commerciales excédentaires ou déficitaires qu’on rééquilibre par des ajustements de parités entre monnaies dont on pose, par principe, que l’aire de circulation se confond avec l’espace circonscrit de leur économie nationale et de son propre système bancaire. Ce qui signifie par exemple que la collecte des statistiques internationales se fait uniquement en fonction d’un principe de résidence : les mouvements de fonds de la filiale à New York d’une grande banque (ou entreprise) française seront considérés comme des importations ou des exportations de capitaux américains, même lorsqu’il s’agit de transactions purement internes à la firme.

L’une des grandes initiatives de la BRI est d’avoir entrepris, dès le début des années 2000, de reconstruire la comptabilité des échanges internationaux sur la base d’un principe de nationalité : les mouvements internes à un groupe transnational sont consolidés avec les comptes du pays où se trouve son siège social. Le résultat est que la BRI dispose aujourd’hui d’une matrice des flux mondiaux (et non plus seulement des soldes) qui révèle un phénomène qui jusque-là restait totalement occulté : la montée en puissance, à partir de la fin des années 1990, d’un colossal volume d’échanges interbancaires, reflet d’une internationalisation de plus en plus poussée des activités bancaires et financières qui, par-delà les frontières, s’autonomisent de manière croissante par rapport à l’orbite territoriale restreinte des anciens marchés monétaires nationaux.

Pour Hyun Song Shin, l’un des membres les plus productifs du département de recherche économique et monétaire de la BRI, c’est ce phénomène – qu’il décrit comme un « Global banking glut » – qui fut le principal incubateur du déclenchement de la grande crise financière 2007 – 200822. Celle-ci, explique-t-il, puise son origine moins dans le comportement d’épargne des Chinois, des Japonais ou des Allemands, que dans l’extraordinaire noria de transferts interbancaires mise en place, au cours des années précédentes, par les grandes banques européennes pour se procurer auprès des fonds monétaires U.S. les liquidités dont elles avaient besoin pour acheter les subprimes américains qui, du fait des différences de réglementation entre les deux rives de l’Atlantique, leur permettaient (en principe) de mieux rémunérer leurs risques. Ponctuellement, la crise a ainsi été déclenchée par une accumulation de déséquilibres de maturité introduits dans les bilans bancaires européens par ce gigantesque trafic atlantique dont personne n’avait, à l’époque, les instruments d’observation pour en déceler l’émergence23.

De ces multiples travaux émerge une réponse alternative aux questions que suscite la crise des années 2010. Une réponse qui ancre son explication, non plus dans l’invocation de forces exogènes de très long terme sur lesquelles nous n’aurions aucune prise, mais dans des mécanismes endogènes générateurs de déséquilibres monétaires et financiers de grande amplitude et de longue durée, initiés par le caractère asymétrique des politiques monétaires dicté aux banques centrales – et en premier lieu à la plus importante d’entre elles, la Fed américaine – par la nature du modèle de pensée macroéconomique qui, depuis près de deux générations, guide leurs diagnostics et donc leurs décisions.

stagnation

L’explication par le cycle financier

Brièvement résumée, la vision des économistes de la BRI s’ancre dans la mise en évidence, par des méthodes statistiques élaborées, qu’en parallèle du très classique cycle des affaires existerait un autre type de fluctuation économique s’étendant sur des périodes de temps plus longues (15 à 20 ans, au lieu des 8 années en moyenne du cycle conjoncturel habituel). Ce cycle financier serait la conséquence de ce que les banques centrales n’agissent pas avec la même célérité pour réagir à un emballement de la conjoncture que pour procéder à une relance de l’activité. Cette asymétrie est le produit de préoccupations politiques très légitimes (la crainte d’augmenter le chômage) dont la contrepartie est cependant un empilement cumulatif de déséquilibres financiers stimulés par le maintien de taux d’intérêts artificiellement bas entraînant, dans la longue période, une explosion non maîtrisée de la dette des ménages, des entreprises et de l’État. Ce petit jeu peut durer longtemps (en la circonstance il a duré plus de vingt ans), mais au prix d’un endettement de plus en plus instable et donc d’une fragilité financière de plus en plus critique. Un jour, inéluctablement, le système craque – pour une raison ou pour une autre, la cause immédiate (les subprimes) important finalement peu. C’est la crise. Celle-ci déclenche une seconde phase, elle aussi de longue durée, dominée par des contraintes d’assainissement et de désendettement des bilans, en particulier au niveau des banques et intermédiaires financiers dont les taux bas ont favorisé le gonflement des activités. S’ensuit un long processus déflationniste d’origine financière (financial drag) dont les symptômes visibles sont des résultats économiques constamment inférieurs aux prévisions, un ralentissement durable de la croissance, une quasi disparition de l’inflation, le blocage de l’investissement et des progrès de la productivité. Résultat : des marchés dont les anticipations (telles que reflétées par le cours des futures) restent négatives, une demande globale en panne, des problèmes d’emploi et de pouvoir d’achat qui perdurent (parfois camouflés sous le caractère douteux de certains calculs statistiques comme c’est le cas aux États-Unis), des difficultés politiques qui s’amplifient… Voilà où nous en sommes. Une peinture guère dissemblable de celle à laquelle conduit le narratif de la stagnation séculaire à la Summers, mais pour des raisons qui n’ont rien à voir – et donc des conclusions politiques, elles aussi, radicalement différentes.

Et ensuite ? Combien de temps cela va-t-il durer ? Les experts de la BRI ne sont guère bavards sur ce sujet. On est légitimement en droit de le regretter. Mais, après tout, ce n’est pas leur métier que de tomber dans la futurologie. En tant qu’employés des banques centrales il est principalement attendu d’eux qu’ils fassent des propositions pour éviter le retour de nouvelles catastrophes. Leurs recherches doivent servir à concevoir des outils susceptibles de limiter la répétition des engrenages qu’ils décrivent, ou du moins d’atténuer l’amplitude de leurs effets. C’est ainsi que leurs travaux débouchent sur des préconisations qui consistent à inscrire dans l’arsenal réglementaire la prise en considération de nouveaux indices et critères qui tiennent compte des processus qu’ils ont mis en évidence, cependant qu’ils n’hésitent pas à demander aux banques centrales – qui sont pourtant leurs employeurs, puisque ce sont elles-mêmes qui sont les actionnaires de la société anonyme qui sert de cadre légal à l’existence de la BRI – de cesser au plus vite de mettre l’inflation (ou plutôt l’absence d’inflation) au cœur de leurs préoccupations de politique monétaire.

Leur espoir est qu’une fois équipées d’instruments pour suivre au plus près l’évolution d’un petit nombre d’indicateurs financiers liés à l’endettement, au crédit, aux prix des actifs, aux dettes et créances en monnaies étrangères24, les banques centrales auront ainsi les moyens d’agir préventivement pour casser les ressorts du cycle financier. Ils sont convaincus que les nouveaux outils réglementaires introduits au lendemain de la grande crise financière (par exemple les ratios bilantiels et ratios de liquidité mis en place au titre de Bâle III et de la législation américaine Dodd-Frank) ne suffisent pas pour stabiliser le système puisqu’ils sont le produit d’un paradigme économique qui, jusqu’à présent, n’intègre aucun des éléments faisant l’objet de leurs études.

stagnation

Un nouvel univers monétaro-bancaire

Le bilan du travail accompli en une dizaine d’années par les chercheurs de la BRI est considérable. Le nombre de travaux de recherche publiés chaque année a été multiplié par trois, et le nombre de chercheurs dépasse maintenant la soixantaine. Leur équipe figure désormais dans le top ten des départements de recherche affiliés aux grandes institutions internationales (type FMI et OCDE) ou à de grandes banques centrales (juste derrière la Fed de Chicago, et devant la Banque de France).

Un rapport d’audit externe réalisé en 2016 (25) salue la remarquable qualité de leurs travaux, mais s’inquiète tout de même de leur tendance à soutenir (voire imposer) avant tout un point de vue maison sur l’ensemble des questions économiques et financières auxquelles ils s’intéressent, au détriment de ce que les trois membres de cette commission considèrent que devrait être une ouverture plus grande à des visions divergentes ou à des solutions alternatives. Sachant à quel point ils reprochent aux principaux courants représentatifs de la pensée économique dominante de rester encombrés d’anachronismes théoriques hérités des cloisonnements économiques qui caractérisaient le monde d’avant la mondialisation, sachant aussi combien ils se montrent extrêmement critiques des politiques menées par ceux qui en définitive sont leurs employeurs, une telle réserve n’est pas anodine. Elle prouve que leurs analyses sont encore loin de convaincre. Il n’est cependant pas interdit d’imaginer que c’est peut-être dans leur laboratoire que s’élabore la nouvelle macroéconomie qui, dans l’univers mondialisé du XXIè siècle, succédera finalement aux modèles des années soixante représentatifs d’un monde cloisonné.

Au-delà de leur analyse du cycle financier, leur contribution la plus significative à la science économique est incontestablement tout le travail investi pendant des années pour repenser et reconstituer la carte mondiale des flux monétaires et financiers internationaux (Cross border flows). Cette recherche leur a permis de mettre à jour des réalités empiriques que personne ne soupçonnait. Un exemple est la révélation de cette noria nord-Atlantique évoquée plus haut. Un autre est la découverte que les grands  mouvements de la valeur du dollar (à la baisse ou à la hausse) sont beaucoup plus fonction de la croissance ou de la décroissance des flux de crédit bancaires et non-bancaires mondiaux que de l’état de la balance commerciale américaine et des décisions monétaires prises pour en réduire le déficit (par exemple en agissant sur les taux26). Ce qui, en clair, signifie que le soi-disant statut impérial du dollar s’est transformé en un traquenard qui est en train de coûter aux États-Unis leur indépendance monétaire (comme le démontrent les extraordinaires difficultés que la Fed rencontre pour mettre en œuvre ses projets de normalisation monétaire et de remontée des taux).

Mais il y a une autre raison pour insister sur l’importance de ces travaux. Ils nous apportent enfin la matière première empirique dont nous avons besoin pour bien percevoir à quel point la mondialisation industrielle et marchande des trente dernières années, sans tambours ni trompettes, a radicalement transformé la nature et le fonctionnement du système monétaire international que la plupart des économistes mainstream continuent de décrire en des termes théoriques qui n’ont plus grand chose à voir avec la réalité concrète du monde bancaire contemporain.

Les économistes de la BRI en tirent des informations pour concevoir des instruments d’observation et d’alerte qui devraient permettre aux responsables monétaires d’agir préventivement sur la formation des grands déséquilibres facteur d’instabilité financière. Ils sont dans leur rôle. C’est ce qu’on leur demande. Ils ne sont pas tendre avec la manière dont ils jugent l’action des banques centrales, et en particulier le logiciel intellectuel dominant qui leur inspire leurs décisions. C’est tout à leur honneur, et aussi à celui de la BRI elle-même qui fait ainsi preuve d’une réelle indépendance de pensée par rapport à ses mandants.

Il leur est professionnellement difficile d’aller ouvertement plus loin dans la critique même si, logiquement, le fil de leurs réflexions devrait les y mener. Pour ma part, je serai beaucoup plus radical. Leurs analyses me renforcent dans l’idée d’avancer une autre grille d’explication fondée sur l’hypothèse qu’au-delà même du thème de la stagnation séculaire, ou de l’explication de la crise par les mécanismes du cycle financier, les véritables raisons de l’actuelle panne de croissance se trouvent dans l’aveuglement des banques centrales et de leurs économistes face aux mutations de la monnaie et de l’ordre monétaro-bancaire issues des dynamiques de la mondialisation. Formulé brièvement, ce qui est en cause est l’incapacité idéologique de ceux-ci à penser le nouvel univers de la finance de marché – c’est à dire le Shadow banking – autrement que comme un détour de production financier inutile et improductif dicté par des manœuvres bassement mercantiles, au plus mauvais sens du terme27. C’est dans cet aveuglement et cette incapacité que résident actuellement les plus grandes menaces pour la prochaine décennie. Dommage que les économistes de Bâle ne soient pas plus explicites sur cette question alors qu’il est permis de penser qu’ils ne devraient pas être très loin de partager, au moins en partie, cette opinion.

 

Henri Lepage

 

1. Kenneth Rogoff et Carmen Reinhart, This Time is Different: Eight Centuries of Financial Follies (Princeton : Princeton University Press, 2009.
2. Lawrence Summers, « Secular Stagnation and Monetary Policy », Federal Reserve Bank of St. Louis Review, 98, no. 2 (2016) : 93–110 ; Lawrence Summers, « Reflections on Secular Stagnation », (speech, Julius-Rabinowitz Center, Princeton University, 19 février 2015).
3. Martin Anota, « Robert Gordon et la fin de la croissance américaine », D’un champ l’autre, 20 février 2014.
4. Les manuels définissent le taux d’intérêt naturel comme étant celui qui correspond à une situation de plein emploi, et que l’on devrait donc observer lorsque le niveau effectif de la production rejoint le niveau potentiel déterminé par le volume de l’ensemble des facteurs de production disponibles.
5. Les banques centrales ont cru qu’elles pouvaient contourner ce problème en ayant recours à des outils d’action monétaire non conventionnels comme les achats massifs d’actifs (QEs), la pratique d’une politique de forward guidance (qui consiste à communiquer clairement sur ce que sont les intentions à moyen terme pour la conduite des taux d’intérêt), ou encore en pénalisant les dépôts de réserve que les banques maintiennent chez elles (cf. les taux négatifs pratiqués par la BCE et la Banque du Japon). Mais le fait qu’elles n’arrivent pas à faire remonter l’inflation au-delà de quelques mois exceptionnels (comme ce fut le cas au début 2017) témoigne de ce que cela ne marche pas. Quoi qu’affirment leurs dirigeants et qu’écrivent les médias (qui prennent pour paroles d’évangile tout ce que ceux-ci disent), cette stratégie est un échec.
6. Banque de France, « La stagnation séculaire et mesure de la croissance », conférence, Paris, 16 janvier 2017. Ouverture par François Villeroy de Galhau, Gouverneur de la Banque de France. Compte rendu publié par le Bulletin de la Banque de France, mai-juin 2017. Par ailleurs, une note du service de la recherche du Parlement européen révèle clairement à quel point la problématique de la stagnation séculaire pénètre déjà les esprits des économistes européens. Gustaf Gimdal et Cemal Karakas, « Secular Stagnation and the Euro Area », Brief, European Parliament, PE.573.972., février 2016.
7. Claudio Borio, « Secular Stagnation or Financial Drag? », (speech, National Association for Business Economics, Washington DC, 5–7 mars 2017).
8. Barry Eichengreen, « Secular Stagnation : The Long View », American Economic Review Papers and Proceedings 105, no. 5 (2015).
9. Erik Brynjolfsson et Andrew McAfee, Le Deuxième Âge de la machine : Travail et prospérité à l’heure de la révolution technologique (Paris : Éditions Odile Jacob, 2014).
10. Jean-Pierre Chamoux, éd., L’ère du numérique 1 : Enjeux des données massives (London : ISTE-éditions, 2017).
11. Martin Bailey et Nicholas Montalbano, « Why is US Productivity Growth So Slow? Possible Explanations and Policy Responses », Hutchins Center Working Papers, 1 septembre 2016.
12. Terme introduit par Thomas Kuhn dans la seconde édition de son célèbre ouvrage La structure des révolutions scientifiques (1962). Dégagé du concept kuhnien initial de paradigme, le terme de matrice disciplinaire est une notion sociologique qui définit ce que partage une communauté scientifique et permet à ses membres de communiquer entre eux. Voir l’article de Patrick Juignet, « Les paradigmes scientifiques selon Thomas Kuhn », Philosophie, science et société, 6 mai 2015.
13. Voir BRI, 86è rapport annuel, année 2016, encadré IV.C, page 98 : Le cycle financier, le taux d’intérêt naturel et la politique monétaire. Pour plus de détails : Borio, Disyatat, Drehmann et Juselius, « Monetary Policy, the Financial Cycle and Ultra-low interest rates », BIS Working Paper n°569, July 2016. Les données les plus complètes se trouvent dans Aldasoro, Borio et Drehmann, « Early warning indicators of banking crises: expanding the family », BIS Quaterly Review, March 2018. Pour leurs travaux, les économistes de la BRI se servent de six indicateurs :
Credit-to-GDP gap : rapport du total des crédits et prêts dont bénéficient les ménages et les entreprises au Produit domestique brut (PIB). Plus précisément il s’agit de suivre l’évolution de l’écart entre ce rapport (évalué sur une base trimestrielle) et sa moyenne mobile de long terme calculée sur 20 ans.
Property price gap : c’est-à-dire l’évolution des prix immobiliers en mesurant l’écart entre la hausse trimestrielle de l’indice (déflaté de la hausse des prix) et son trend de long terme.
Debt-service-ratio (DSR) : il s’agit de suivre l’évolution de la charge trimestrielle des intérêts sur la dette et son amortissement rapportée au revenu, en évaluant là encore l’écart avec sa moyenne mobile de long terme sur vingt ans.
Household-credit-to-GDP gap : même chose que pour le premier indicateur mais en ne mettant au numérateur que les crédits et prêts aux ménages.
Household-debt-service-ratio : même chose que pour le troisième indicateur mais en ne tenant compte des données pour les ménages.
Foreign currency debt : concept qui regroupe l’ensemble des dettes libellées monnaies étrangères – dollars US, euros, yens, livres sterling ou francs suisses – dues à des banques ou organismes financiers non bancaires étrangers (y compris les souscriptions d’obligations longues ou courtes et produits dérivés)
Cross-border claims : à l’inverse du point précédent, l’état des créances financières et monétaires en tous genres accumulées par les banques et non banques nationales sur les systèmes bancaires et financiers étrangers.
Les tests ont été menés à partir de données provenant de 42 pays, sur une période allant du premier trimestre 1980 au deuxième trimestre 2017. Ils montrent que ces indicateurs devraient permettre de réaliser des progrès considérables dans la détection suffisamment à l’avance de l’addition de déséquilibres et de vulnérabilités bancaires et financières susceptibles de mener à une crise.
14. Dans la bonne tradition économique d’avant la macroéconomie, le taux d’intérêt mesure la préférence pour le présent par rapport au futur (consommer aujourd’hui ou épargner pour consommer demain). C’est en quelque sorte le prix du temps. Dans cette perspective, l’idée qu’il puisse y avoir un taux d’intérêt négatif est une absurdité conceptuelle. Il est ainsi heureux de voir ces économistes démontrer en s’appuyant sur des travaux empiriques que l’hypothèse d’un taux naturel négatif ne peut que résulter du caractère incomplet des spécifications entrant dans la construction du modèle de calcul. Sur ce sujet voir Mikael Juselius, Claudio Borio, Piti Disyatat, et Mathias Drehman, « Monetary policy, the financial cycle and ultra-low interest rates », BIS working paper n°569, Juillet 2016.
15. Claudio Borio, « Through the Looking Glass », (speech, OMFIF City Lecture, London, 22 septembre 2017).
16. Mise en évidence en 1958 par un économiste néo-zélandais professeur à la London School of Economics, William Phillips (1915–1975), la courbe de Phillips est une courbe illustrant une relation empirique négative (relation décroissante) entre le taux de chômage et l’inflation, ou le taux de croissance des salaires nominaux.
17. Cité par Claudio Borio :
« The link between measures of domestic slack and inflation has proved rather weak and elusive for at least a couple of decades now. True, if one tries hard, it is always possible to find it. But it is not the kind of relationship that jumps at you and appear robust… Graph 1 … show that for G7 countries the response of inflation to a measure of labour market slack has tended to decline and become statistically indistinguishable from zero. In other words, inflation no longer appears to be sufficiently responsive to tightness in labour markets. Again, let me stress: one can get statistically significant coefficients for some specifications, but the picture portrayed in the graph is quite typical. Moreover, it would have been starker had one used output-based as opposed to labour market-based, measures of slack. »
Claudio Borio, « Through the Looking Glass », (speech, OMFIF City Lecture, London, 22 septembre 2017), 2. Dans une étude datée 22 septembre 2017, les économistes de la BRI expliquent la disparition de la relation de Phillips comme une conséquence de la mondialisation industrielle – plus précisément un effet de la montée en puissance des chaînes de valeur transnationales qui se sont développées depuis les années 1990 et ont, en accentuant la concurrence, modifié l’équilibre des relations de pouvoir entre le management des grandes entreprises occidentales et les organisations syndicales ouvrières des pays développés. (cf. Raphael Auer, Claudio Borio and Andrew Filardo, « The Globalisation of Inflation: The Growing Importance of Global Value Chains », BIS Working Papers, no. 602, 9 janvier 2017).
18. Claudio Borio, et coll., « The Costs of Deflations : A Historical Perspective », BIS Quarterly Review, 18 mars 2015.
19. Voir le résumé de cette question donné par Claudio Borio dans sa conférence « Revisiting Three Intellectual Pillars of Monetary Policy Received Wisdom », (speech, Luncheon address, Cato Institute, Washington DC, 12 novembre 2015), 5.
20. Un exemple tout à fait emblématique de ce voisinage est l’intervention de Claudio Borio en janvier 2018 dans le cadre d’un séminaire BRI-FMI-OCDE organisé à Paris sur le thème : Weak Productivity: The Role of Financial Factors and Policies. Dans cette présentation (A Blind Spot in Today’s Macroeconomics) il souligne que l’un des grands reproches que l’on est en droit d’adresser aux modèles macroéconomiques standards est de ne pas s’intéresser aux développements intersectoriels, et même intrasectoriels, que déclenchent les processus de boom financiers et qui sont susceptibles d’entraîner des effets négatifs de longue durée au niveau des évolutions de la productivité (via le déclenchement de ce que, comme les disciples d’Hayek, il décrit comme des malinvestissements résultant d’un gauchissement de la structure de production lié aux effets de taux d’intérêts durablement trop bas). Mais, à la différence de ses collègues « autrichiens » toujours très réticents aux disciplines de l’économie mathématique (d’où leur isolement universitaire), son analyse est structurée de manière à formuler des relations susceptibles d’être économétriquement testées, et permettant ainsi d’obtenir des évaluations quantitatives. Borio cite ainsi les résultats qui figurent dans une étude de la BRI datant de 2015 (cf. Claudio Borio et coll., « Labour Reallocation and Productivity Dynamics: Financial Causes, Real Consequences », BIS Working Papers, no. 534, 6 janvier 2016). Selon les travaux de cette équipe, les distorsions financières responsables de la crise auraient, pour la période post-crise 2008–2013, entraîné une baisse moyenne du taux de croissance annuel de la productivité de l’ordre de 0,6 % – ce qui représente une perte de moitié par rapport à ce qu’auraient été les progrès de la productivité s’il n’y avait pas eu la crise bancaire et financière. Cette présentation offre une illustration et un chiffrement de la manière dont des faits purement monétaires et financiers (taux, crédits) interfèrent avec les facteurs de croissance réels (démographie, emploi, investissement, productivité…) qui seuls apparaissent dans les modèles de prévision macroéconomique habituels.
21. Voir l’étude de Claudio Borio and Piti Disyatat, « Global Imbalances and the Financial Crisis: Link or No Link? », BIS Working Papers, no. 346, 27 mai 2011 ; George Selgin, « Less than Zero: The Case for a Falling Price Level in a Growth Economy », IEA Hobart Paper no. 132, The Institute for Economic Affairs, 1997.
22. Voir Hyun Song Shin, « Global Savings Glut or Global Banking Glut? », VOX CEPR Policy Portal, 20 décembre 2011. Hyun Song Shin, « Global Banking Glut and Loan Risk Premium », (speech, 2011 IMF Annual Research Conference, Mundell-Fleming Lecture, Washington DC, 10–11 novembre 2011). La thèse de la noria bancaire européenne au-dessus de l’Atlantique est développée dans un livre de Tamim Bayoumi (économiste au Fonds Monétaire International) publié au début septembre 2017 : Unfinished Business: The Unexplored Causes of the Financial Crisis and Lessons Yet to be Learned (New Haven, CT : Yale University Press, 2017). Un autre texte intéressant sur cette question encore peu connue est celui de l’économiste de banque britannique Frances Copppola, sur son blog personnel Coppola Comments, où elle commente l’étude de Hyun Song Shin (cf. son article « European Banks and the Global Banking Glut » en date du 7 juin 2019). Elle y explique comment l’origine du phénomène se trouve dans les différences qui ont caractérisé la manière dont les États-Unis et les pays de la zone Euro ont mis en œuvre les recommandations des accords de Bâle I au début des années 2000. Ces différences ont donné naissance à un phénomène d’arbitrage réglementaire massif qui a déclenché un puissant effet auto-cumulatif des mouvements de liquidité entre la sphère bancaire européenne et la sphère bancaire américaine.
23. La critique que Borio et Disyatat formulent à l’encontre de l’explication par le Saving glut est également d’ordre épistémologique. Le modèle décrit par Ben Bernanke est le produit caractéristique d’une théorie économique reposant sur le postulat de neutralité de la monnaie comme l’est la théorie keynésienne. L’économie internationale s’y résume en échanges entre économies essentiellement fermées. Dans un tel univers, les deux notions de financement et d’épargne se confondent : il n’y a pas de problème de financement per se puisque tout y est pensé en termes d’équilibre, c’est à dire excluant la prise en compte de toute difficulté de couverture de décalages temporaires dans les besoins de trésorerie individuels. Dans le monde réel, le rôle de la banque n’est pas seulement d’assurer la collecte de ce qui n’est pas consommé (l’épargne) pour le réorienter vers ceux qui ont des projets d’investissement (chez soi ou à l’étranger) ; il est aussi d’intervenir pour aider les entreprises à financer les besoins temporaires de leurs établissements – nationaux ou situés à l’étranger – en fonds de roulement (fonction monétaire, soit par le crédit, soit en intermédiant leurs flux de trésorerie). Dans le monde fermé de type keynésien d’avant la mondialisation, les mouvements financiers entre nations correspondaient essentiellement à des flux d’épargne. Du point de vue de la dynamique économique internationale, la confusion entre financement et épargne ne prêtait guère à conséquence. En revanche, tout change avec la mondialisation financière, l’intégration croissante des flux d’intermédiation bancaires à l’échelle de la planète, le développement des grands réseaux de valeur transnationaux, et l’explosion du volume des crédits monétaires inter-territoriaux (Cross-border flows) – c’est à dire le passage à une économie internationale désormais fondamentalement non-keynésienne qui ne ressemble plus en rien à l’image stylisée associée au paradigme du Global savings glut. Utiliser celui-ci pour expliquer la crise d’un ordre mondial radicalement différent relève de l’abus de contexte caractérisé. Selon Borio et Disyatat il vaudrait mieux parler d’un excès d’élasticité de l’offre mondiale de crédits (le Global banking glut de leur collègue Shin) que d’un excès d’offre d’épargne (cf. Claudio Borio and Piti Disyatat, « Global Imbalances and the Financial Crisis: Link or No Link? », BIS Working Papers, no. 346, 27 mai 2011).
24. Voir le détail des indicateurs financiers donnés plus haut, à la note 15.
25. Voir Franklin Allen, Charles Bean, and José de Gregorio, « Independent Review of BIS Research Final Report », 23 décembre 2016.
26. Hyun Song Shin, « Global Liquidity and Procyclicality », (speech, World Bank conference, « The State of Economics, The State of the World », Washington DC, 8 June 2016).
Interestingly the most recent period of dollar strength from mid-2014 has been associated with a decline in the aggregate cross-border liabilities … When an international currency depreciates, there is a tendancy for foreigners to borrow more in that currency … The precise mechanism will depend on the context, but the key feature of the risk-taking channel is that when the dollar depreciates, banks lend more in US dollars to borrowers outside the United-States. Similarly, when the dollar appreciates, banks lend less, or even shrink outright the lending of dollars. In this sense, the value of the dollar is a barometer of risk-taking and global credit conditions.

27. Pour plus de détails voir Henri Lepage, « Système monétaire et banques centrales: la grande déglingue », Arguments, 17 septembre 2017 ; Henri Lepage, « Le ressort brisé du système monétaire international », Politique Internationale 158 (2018) ; Henri Lepage, « La finance de marché, ressort de l’ordre monétaire mondial », Journal des Libertés, Vol 1, n°2, automne 2018. Le thème de ces articles :

La croissance est morte car les banques centrales ont cassé le régime monétaire mondial. Les banques centrales continuent d’agir sur la base d’un paradigme de représentation où les systèmes bancaires et monétaires sont fondamentalement de nature hiérarchique, dans le cadre d’espaces économiques essentiellement fermés où la monnaie, sa création et son contrôle restent sous la tutelle étroite d’une banque centrale souveraine qui sert de sas de passage obligé pour les relations économiques internationales. Avec la mondialisation, ce système a vécu. On est passé dans un nouvel univers monétaro-bancaire où le refinancement des banques ne passe plus par la hiérarchie des marchés monétaires nationaux, mais se trouve directement branché sur un nouvel espace mondialisé qui assure directement, par-delà les frontières, la collecte des énormes masses de liquidités générées par l’activité des immenses chaînes de valeur industrielles maillant désormais la planète – le « Global wholesale money market » des anglo-saxons. C’est ce marché qui, aujourd’hui, est devenu l’institution monétaire centrale de l’économie internationale. Son fonctionnement repose sur l’activité d’une quinzaine de grand groupes bancaires transnationaux (Global banks) qui y exercent la fonction centrale de « market makers ». La panne économique actuelle est due à ce que l’alourdissement des réglementations bancaires et financières depuis 2008 a changé la structure incitative de leur encadrement légal, les conduisant à réduire leurs offres de marché en rapport avec la hausse de leurs coûts et l’aggravation de leurs risques, sans que les banques centrales, malgré leurs politiques de quantitative easing, se révèlent en mesure de compenser la réduction de leur activité monétaire globale.

Published on July 11, 2019 in Volume 4, Issue 4.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.