Optimum, le seul blog véritablement optimal

Aller au contenu | Aller au menu | Aller à la recherche

jeudi 13 décembre 2018

La faille… science-fiction monétaire

Monsieur le président,

Comment calmer la rue ? Comment trouver de l’argent pour satisfaire ces malheureux, sans accroître les impôts qui les saignent ? Vous avez exclu l’ISF, c’est noté. C’est vous le président après tout ! La dette ? Elle est déjà élevée, et vous n’avez pas d’arme monétaire pour vous aider à l’alléger un peu. Il est loin le temps on l’on pouvait sortir d’une crise par le haut, avec un peu d’inflation. La BCE a d’autres soucis que vos gilets jaunes, monsieur le Président… Et pourtant, ça ne nous ferait pas de mal ! Regardez : avant la crise, notre PIB nominal augmentait régulièrement à des rythmes de 4 ou 5% annuels ! De nos jours, on dépasse péniblement les 2%, c’est un peu mou !

 

Monsieur le président, vous êtes né sous une bonne étoile, car en cette période qui semble sans issue, une faille spatio-temporelle pourrait vous apporter le salut, et, à défaut de prospérité, un peu de bonne humeur à votre peuple. Cette faille porte un nom : PERF. Non, pas pour « perfusion », comme vous y allez… mais pour « Portefeuille Électronique de la République Française ». Suivez-moi, je vais vous expliquer…

 

Il a quelques quatre siècles, en Hollande, de riches commerçants confiaient leur or à des banquiers, afin qu’il soit en sécurité dans de grands coffres. Ces banquiers ont eu une idée géniale : échanger cet or qu’ils conservaient contre des certificats de dépôt anonymes, et donc échangeables. Ainsi, lorsqu’un de ces commerçants devaient effectuer un paiement en or, il pouvait le faire en donnant un certificat de dépôt plutôt que de l’or. C’était si pratique, que finalement les certificats sont devenus eux-mêmes un moyen de paiement : un fournisseur recevant un paiement sous cette forme n’allait plus systématiquement chercher l’or correspondant, puisqu’il pouvait utiliser le même certificat pour payer ses propres fournisseurs. Du coup, les banquiers ont pu émettre plus de certificats que ce qu’ils n’avaient d’or dans leurs coffres. Ils ont créé de la monnaie, comme vous aimeriez pouvoir le faire aujourd’hui.

Et bien monsieur le président, vous avez, si vous la saisissez, une occasion en or de faire exactement la même chose !

 

Avez-vous remarqué que lorsque vous ‘likez’ un statut twitter, votre ‘like’ est immédiatement comptabilisé ? En revanche, lorsque vous payez par carte une boîte de capsules de café, il faut deux ou trois jours pour que la somme passe de votre compte à celui de George Clooney. Ne préfèreriez-vous pas que la somme soit transmise immédiatement plutôt que de vivre en permanence dans l’angoisse de savoir si le solde qui apparait sur votre smartphone inclut bien votre dernier paiement en date ? Et imaginez l’angoisse des commerçants, qui se demandent s’ils vont dépasser leur découvert autorisé, selon le temps mis par un virement en attente !

Techniquement, il est possible de faire des systèmes de paiement qui vont plus vite. Paylpal fait ça. Les Crous qui gèrent les restaurants universitaires de nos beaux campus ont créé une superbe appli ‘izly’ qui fait la même chose. Mais ces systèmes de paiement ne sont pas suffisamment universels pour changer la vie de gens. Et les banques elles-mêmes ne le font pas, car elles sont interconnectées, et il faudrait donc qu’elles adoptent de façon synchronisée un nouveau système informatique.

Mais oh… on est la start-up nation ou pas ? Alors vous allez être un game-changer, Monsieur le président.

Voilà comment ça va se passer. Vous allez débaucher 20 chercheurs du CNRS, dont au moins 3 ou 4 spécialistes en cryptographie, pour développer votre appli. PERF. Le principe est le suivant : chaque utilisateur a un compte, avec mot de passe et identifiant. Ce compte est associé à un ou plusieurs comptes en banque, pour effectuer des virements dans les deux sens. Sur l’appli smart-phone, un code-barre permet de réaliser des paiements directement. Si la somme est trop élevée (>50€), l’utilisateur doit utiliser son mot de passe.

Jusque-là, vous ne faites que réinventer ce qui existe déjà.

Mais comme vous êtes la startup nation, vous allez ajouter quelque chose : vous allez annoncer que, dès janvier 2020, les fonctionnaires acceptant d’être payés sous la forme de virement sur leur compte PERF pendant au moins deux ans bénéficieront d’une prime de 1000€ versée en 5 mensualités. En même temps, vous annoncez que tous les contribuables acceptant de s’acquitter de leurs impôts en utilisant exclusivement leur compte PERF pendant deux ans bénéficieront d’une baisse d’impôt de 1% pendant cette période. Évidemment, entre temps, vous aurez équipé le trésor public et toutes les caisses percevant les cotisations sociales d’un compte PERF.

Comme ça va plaire à tous les commerçants, qui se trouvent être également des contribuables, vous allez, pendant quelques mois, leur fournir l’assistance qu’ils ne manqueront pas de vous demander pour s’équiper également.

 

Janvier 2020, tout l’argent qui, normalement, devrait être utilisé pour payer les fonctionnaires volontaires, sera versé à PERF, en échange de l’équivalent en euros-PERF, plus 200€ par volontaire (c’est la première mensualité de la prime). Alors évidemment, si la totalité des fonctionnaires souhaitent transférer la totalité de leurs euros vers leur compte en banque habituel, c’est l’échec. Mais oh, on n’est pas la startup nation sans prendre un peu de risque ! Cela dit, les commerçants ayant installé leurs propres comptes pour bénéficier de la baisse d’impôts, ils devraient accepter sans problème des paiements via PERF. Il suffit que les fonctionnaires conservent sur leur compte PERF plus de 200€ en moyenne pour l’opération ait réussi.

Ainsi, si tous les utilisateurs se mettent à utiliser leur compte comme moyen de paiement habituel, PERF sera devenu, comme les banquiers du 17ème siècle, un créateur de monnaie. Tout en étant un établissement public, bien entendu !

 

Évidemment, PERF ne devra pas faire n’importe quoi. La start-up sera devenue une sorte de banque centrale bis. Il ne s’agit pas de lui faire créer des dizaines de milliards de liquidité par mois. Il lui faudra un statut, une indépendance, des objectifs. En guise d’objectif, je propose par exemple de s’assurer une croissance du PIB nominal de la France de 4% par an.

Ne vous y trompez-pas, Monsieur le Président. Un jour ou l’autre, quelqu’un va réussir à imposer le modèle du paiement en ligne comme un nouveau standard monétaire. Celui-là aura alors un pouvoir de création monétaire. La fenêtre de tir ne restera pas ouverte pendant 10 ans ! A vous de voir si vous voulez entrer dans l’histoire comme le président qui aura rendu à l’État un petit peu de sa souveraineté monétaire tout en restant dans l’Euro, ou comme celui qui a organisé des techno-parades à l’Élysée.

Voyez grand, Monsieur le président, pensez ‘Startup Nation’.

lundi 8 octobre 2018

Le Brexit coûte-t-il 350M£ par semaine ?

Comme vous le savez, les britanniques ont décidé, par référendum, de quitter l'Union Européenne voilà plus de 2 ans. Ce scrutin a été emblématique de la mode des fake news et de leur dénonciation, en raison notamment d'un chiffrage à 350M£ par semaine des contributions nettes du Royaume Uni, chiffre largement surestimé.

Deux ans après le vote, peut-on tirer des conclusions sur son impact économique ? En théorie, il faudrait distinguer un effet conjoncturel d'un effet structurel. L'effet structurel concerne le long terme, et la place du RU dans l'économie européenne. Version pessimiste : privé de marchés européens et de son rôle de grand financier du continent, le pays s'installe dans une morosité économique durable, au profit de Paris ou Francfort. Version optimiste : ne pas appartenir à l'Union n'empêche pas de commercer avec elle, et le RU s'étant spécialisé dans la finance sans avoir jamais adopté l'Euro ne devrait pas voir son hégémonie en la matière contestée.

Difficile de départager ces deux visions sans savoir quel accord sera négocié avec l'Union. Même si l'on connaissait l'issue des négociations, encore faudrait-il disposer d'estimations convaincantes de l'ampleur des gains que tire le RU de son commerce avec l'UE et de sa spécialisation dans la finance. Donc... gros point d'interrogation.

L'effet conjoncturel concerne le court terme : comment les agents économiques vont-ils réagir à cette incertitude ? L'incertitude devrait rendre les consommateurs plus enclins à épargner, les entreprises moins enclines à investir, les gestionnaires de fonds plus enclins à offrir des livres sterling qu'à en demander, ce qui devrait stimuler les exportations... sauf si les partenaires commerciaux sont eux-même rendus frileux par l'incertitude sur les accords commerciaux. L'un dans l'autre, l'effet à court terme devrait être récessif.

So what? Contrairement à ce que j'aurais très volontiers parié il y a deux ans, il n'y a pas eu de récession. Le chômage a continué de diminuer, le PIB réel de monter. Je n'étais pas le seul, il y a deux ans, à penser que le Brexit faisait supporter un risque à l'économie britannique. A part Dani Rodrik qui exprimait un point de vue assez modéré, la plupart des économistes pronostiquaient un coût élevé. Je me souviens de m'être trouvé, à cette époque, dans une conférence d'économie internationale qui se tenait en Espagne. 100% des économistes présents avec qui j'ai pu échanger sur le sujet considéraient que le Brexit serait catastrophique. Je ne peux exclure qu'ils aient raison à long terme, mais pour le moment, la catastrophe n'a pas lieu.

J'aimerais tant que l'économie soit une science suffisamment mure pour que fleurissent des articles prenant acte du fait que l'immense choc politique qu'a constitué le Brexit ne s'est pas traduit par une récession. Au lieu de ça, le pourtant très sérieux CEPR publie la deuxième version d'un working paper (résumé sur Vox) qui chiffre la perte de PIB à, tenez-vous bien... 350M£ par semaine. Autrement dit, l'économie que les britanniques étaient censés réaliser grâce au Brexit selon ses partisans se trouve, aujourd'hui, correspondre à ce qu'il leur coûte selon ses détracteurs.

Simon Wren-Lewis, qui en est, explique que l'investissement et les exportations n'ont pas été stimulés, ce qui prouve que les agents économiques anticipent correctement un futur sombre, mais que la consommation n'avait pas chuté, ce qui doit venir du fait que les ménages n'anticipent pas très bien le futur sombre qui les attend.

Ce working paper, hélas, est assez peu convaincant. Le principe du calcul est le suivant : il s'agit de comparer l'évolution du PIB britannique à un contrefactuel. Pour construire le contrefactuel, les auteurs construisent une moyenne des évolutions des PIB en volume des autres pays de l'ocde de 1995 à début 2016. La moyenne n'accorde pas le même poids à chaque pays, mais se base sur un système de pondérations choisies de manière à ce qu'elle se rapproche autant que possible du PIB britannique sur cette période pré-brexit. Étant donnée l'évolution économique sur la période (crise de 2008 + reprise pour tout le monde), il n'est pas très surprenant qu'on puisse trouver un jeu de pondérations qui permette de reconstituer le PIB britannique presqu'exactement.

Les pondérations sont données dans cette table :

En gros, le contrefactuel est une moyenne des PIB du Japon, de la Hongrie, des USA, du Canada, et de quelques autres. Le coût estimé du brexit correspond donc à l'écart entre la courbe du PIB britannique et celle du contrefactuel.

Cet écart de plus d'un point de PIB est-il significatif ? Les lecteurs ayant l'habitude de l'inférence statistique seront tentés de répondre par l'affirmative en constant que la courbe bleue sort de la zone grise autour de la courbe rouge, qui matérialise un intervalle de confiance. Or cette zone grise a été construite de la pire manière qui soit : en ajoutant et en retranchant 1 (oui, bien 1) écart-type de l'écart entre le PIB britannique et son contrefactuel. En admettant que cet écart suive une loi normal sous l'hypothèse d'une absence de décrochage, il s'agit alors d'un intervalle de croissance à 68%, ce qui est loin des 95% constituant la norme pour valider un résultat statistique.

Voici à quoi ressemble une loi normale avec + ou - 1 écart-type autour de la moyenne :

J'ai tenté de répliquer le calcul des auteurs, en me basant également sur les PIB des pays de l'OCDE. A la différence d'eux, je ne calcule pas une moyenne, mais je fais de façon plus classique une régression expliquant le PIB britannique par le PIB des autres pays de l'OCDE. Comme eux, et sans surprise, je trouve une très bonne superposition des courbes jusqu'au brexit, et pas après, puisque la régression n'intègre les données que jusqu'au brexit. Comme eux, je trouve un PIB réel qui s'écarte du contrefactuel. 

Pour être franc, l'écart semble même plus important que celui trouvé par les auteurs (environ 3 points de PIB). Zoomons

Cela s'explique par le fait que les USA, qui ont connu une croissance élevé ces derniers trimestres, compte davantage dans ma simulation que dans la leur.

Mais la vraie différence tient au fait que j'indique, pour ma part, un intervalle de confiance à 95% et non à 68%. Et l'on constate que le PIB observé flirte avec la frontière inférieure de l'intervalle. Cela signifie que toute interprétation de l'écart entre les deux courbes doit être extrêmement prudente. Méfions-nous de l'impression visuelle trompeuse. En effet, il saute aux yeux que les deux courbes sont presque confondues avant le brexit, et qu'elles se détachent visiblement après. Mais n'oubliez pas que, par construction, la partie post-brexit n'est pas prise en compte dans le choix des paramètres. Si l'on avait pris en compte la totalité de la période, jusqu'à 2018, on aurait obtenu le graphique suivant :

sans aucun effet détectable du brexit.

Croyez-moi, j'aurais préféré, pour le lustre de ma discipline et pour flatter mes propres a priori, que le Brexit soit un fiasco, que le Japon s'enlise dans un populisme macroéconomique inflationniste et que les USA entrent en récession à cause des politique de Trump. Pour l'heure ces choses n'ont pas l'air de se produire. Ironie de l'histoire, c'est même parce que l'Abenomics et le Trumpisme s'accompagnent, pour le moment, d'une assez bonne croissance que, par comparaison, le Brexit semble être couteux.

La prévision n'est décidément pas le fort des économistes.

(PS: je fournis les fichiers et codes R des calculs présentés dans ce billet sur demande)

lundi 14 mai 2018

La théorie du ruissellement existe-t-elle ?

"Si l'on commence à jeter des cailloux sur les premiers de cordée c'est toute la cordée qui dégringole", déclarait le président Macron en octobre dernier. Cette phrase est une illustration assez parfaite de ce qu'on appelle la "théorie du ruissellement" (Trickle down theory en anglais). Cette théorie veut que l'enrichissement des plus riches finisse par bénéficier à terme aux masses. Ne vous précipitez toutefois pas sur google pour savoir qui est l'inventeur de cette théorie. A l'instar du néolibéralisme ou de la théorie du genre, il s'agit d'une étiquette dont personne ou presque ne se réclame (Noah Smith est une exception pour le néolibéralisme). Le terme est essentiellement utilisé pour caricaturer l'argument de ceux qui se font les avocats de mesures favorables aux riches, lorsqu'ils promettent qu'elles seront bénéfiques pour tous.

Les baisses d'impôts aux USA sous Reagan se sont accompagnées d'un accroissement assez régulier de la part des 1% des plus riches dans le revenu national, sans que ça n'ait bénéficié aux américains les plus modestes. Difficile de voir dans cette expérience autre chose qu'un démenti cinglant à la théorie du ruissellement. 

Comme Najat Vallaud-Belkacem l'avait fait pour la théorie du genre, les économistes peuvent être tentés de se protéger en déclarant que "la théorie du ruissellement n'existe pas", renvoyant implicitement ceux qui la dénoncent à leur inculture. Un certain Heinz Arndt (j'ignore son prénom cf commentaires) s'était déjà laissé aller à un tel argumentaire en... 1983. Dans un article intitulé "The "Trickle-Down" Myth", il explique que les économistes du développement de son époque s'acharnent à dénoncer les échecs de la théorie du développement par le ruissellement, présentée comme dominante après la guerre. Problème : il ne trouve aucune trace de cette théorie dans la discipline après la guerre !

Mais reproduire cet exercice aujourd'hui serait trop facile. Il est incontestable que des arguments de type ruissellement sont régulièrement mis en avant par les décideurs politiques lorsqu'ils justifient des mesures susceptibles d'aider les mieux lotis. Et, bien qu'on puisse suspecter de leur part un comportement de classe, il n'est pas douteux qu'ils mettent parfois en avant des arguments produits par des économistes pour se donner une crédibilité.

Que disent les économistes sur ce sujet ? Quel type de politiques pro-riches préconisent-ils exactement ? Leurs travaux peuvent-ils justifier des politiques fiscales favorables aux riches actuellement dans les pays développés ?

La figure académique la plus emblématique de la théorie du ruissellement est certainement Arthur Laffer.

Laffer est l'homme du slogan "trop d'impôt tue l'impôt". Sa thèse est assez simple à exposer. Si l’État pratique un taux d'imposition de 0%, les recettes fiscales sont nulles. Si le taux est de 100%, il ne reste plus rien pour payer les gens qui travaillent, et donc personne n'accepte de travailler. Les recettes fiscales sont donc nulles également. Entre 0% et 100%, les recettes fiscales doivent donc augmenter dans un premier temps, avant de redescendre. Par conséquent, si les taux d'imposition sont très élevés, il est possible que les faire baisser conduise à augmenter les recettes fiscales. Si ces recettes fiscales sont redistribuées aux pauvres, on peut voir là une forme particulière de théorie du ruissellement.

Les républicains des années Reagan aux USA se sont abrités derrière cette thèse pour justifier des baisses d'impôt. Mais, très rapidement, les tests empiriques ont révélé qu'il fallait des taux marginaux extrêmement élevés pour créer un effet Laffer, et que les baisses d'impôt de Reagan n'ont fait que... baisser les recettes fiscales. (lire Beatrice Cherrier pour plus d'infos sur l'histoire de la courbe de Laffer).

Plus proche de nous, le français Philippe Aghion défend des thèses en opposition à celles de Thomas Piketty, qui peuvent s'apparenter à une forme de ruissellement. Mais pour éviter la caricature, encore faut-il préciser ce qu'il dit exactement. Selon Aghion, les inégalités au sommet de l'échelle des salaires peuvent s'expliquer en partie par des comportements de prédation qu'il faut combattre. Mais, pour lui, une partie de ces inégalités provient également de l'innovation. Les innovateurs à succès gagnent beaucoup d'argent, mais en contrepartie ils créent de la croissance par le progrès technique. Plus précisément, Aghion défend l'idée que l'innovation crée 1- de l'inégalité "par le haut", mais 2- pas d'inégalité globale (au sens de Gini) 3- de la croissance et enfin 4- de la mobilité sociale. Les politiques qu'il préconise ne sont donc pas directement des politiques visant à favoriser les riches, mais des politiques pro-innovation, dont il faut accepter qu'elles aient l'effet indirect d'enrichir une petite minorité, en raison de ses effets bénéfiques pour tous par ailleurs.

Il s'agit donc d'une forme de théorie du ruissellement beaucoup plus indirecte que celle de Laffer, mais on peut admettre de la qualifier ainsi. On peut également dire que les idées d'Aghion, bien que discutables, sont éminemment plus étayées que celle de Laffer, dont on sait qu'elle ne fonctionne pas pour les niveaux d'imposition de nos pays.

Dans un registre beaucoup plus confidentiel, on peut citer certaines thèses fiscales de James Buchanan. Prix Nobel d'économie, Buchanan incarnait une tendance de l'économie extrêmement réservée sur l'intervention publique, bien plus que la moyenne de la profession. Vous pourrez trouver dans le volume 4 de ses œuvres complètes certaines considérations sur la progressivité de l'impôt. En particulier, si certains équipements publics sont utilisés prioritairement par des pauvres, plus pauvres que l'électeur médian, alors il est préférable, pour eux, que la fiscalité ne soit pas progressive, car dans ce cas, les riches voteront pour la suppression de ces équipements publics. L'argument ruisselant ici est donc : baissez les impôts des riches, augmentez celui des pauvres, ainsi les riches seront moins hostiles à la dépense publique et les pauvres pourront donc bénéficier de plus d'équipements publics. On notera que cet argument n'est pas 'macro'. Il ne s'agit pas ici d'affirmer que baisser les impôts des riches créera des emplois ou de la croissance, mais simplement que cela modifiera le processus électoral à l'origine de l'affectation des ressources publiques.

Concernant le ruissellement entre individus ('aidez les riches pour aider les pauvres'), je ne vois pas grand chose d'autre de probant. On peut toutefois ajouter à la liste une forme particulière de ruissellement, le ruissellement entre territoires. Vaillamment combattue en France par Oliver Bouba-Olga et ses co-auteurs, une certaine vision du développement territorial postule que c'est en renforçant les agglomérations déjà grandes que les politiques publiques peuvent stimuler la croissance de leur territoire. Les recettes fiscales générées par cette croissance permettront ensuite d'en diffuser les bénéfices en direction des zones périphériques. De plus, les riches urbains iront dépenser leur argent en périphérie pendant leurs vacances. Bref, la croissance des métropoles profitera bientôt à tous. Au niveau national, on trouve ce genre d'idées défendues par Laurent Davezies ou, de façon beaucoup plus assumée, par Philippe Martin et Philippe Askenazy. Richard Baldwin défend, dans 'the Great Convergence', des idées assez proches. Que penser de cette forme de théorie du ruissellement ? Pour ma part je suis assez mitigé. D'un côté, ces thèses font souvent dire à la Nouvelle Économie Géographique des choses qu'elle ne dit pas, et des auteurs comme Andrès Rodriguez-Posé montrent qu'il est très difficile de trouver un lien positif entre taille des agglomérations et croissance au niveau des pays. De l'autre, la question de la prime salariale urbaine ne permet pas d'exclure que les agglomérations aient des effets positifs sur la productivité des travailleurs (bien que la causalité ne soit pas aisée à déterminer).

Pour ce que j'en connais, l'économie n'a pas produit grand chose d'autre qui puisse raisonnablement être taxé de théorie du ruissellement. Néanmoins, la notion de théorie du ruissellement étant généralement définie de façon assez floue, on peut toujours en faire une lecture très extensive, et décréter qu'on est en présence de théorie du ruissellement dès qu'on est en présence d'une thèse semblant justifier, d'une manière ou d'une autre, des écarts de revenu. 

Par exemple, le philosophe John Rawls a développé un 'principe de différence', qui indique que les inégalités entre individus ne sont justifiables que si elles sont favorables aux plus pauvres. L'idée sous-jacente est qu'une égalité parfaite ne permettrait pas de voir apparaître des médecins, des ingénieurs, et que de telles professions permettent d'améliorer le sort des plus démunis. Mais, dès lors qu'un certain niveau d'inégalité existe, permettant de récompenser ces médecins et ingénieurs, accroître encore ces inégalités finirait par être défavorable aux plus pauvres. C'est pour cette raison que Rawls indiquait très explicitement sa préférence pour les systèmes sociaux européens par rapport au système américain : plus redistributeurs, tout en laissant de la place pour rémunérer correctement des professions à la fois très difficiles et très utiles. Parler, à ce sujet, de théorie du ruissellement serait absurde.

La théorie économique est, en fait, pleine de choses que l'on peut interpréter, avec un peu de mauvaise foi, comme des justifications de la théorie du ruissellement. Joseph Stiglitz, qui pourtant la connait bien, va jusqu'à rendre la théorie économique dominante responsable des inégalités de revenus actuelles. Cette théorie dominante, nous dit-il, suppose que le salaire reflète la productivité marginale d'un individu. Et donc, si quelqu'un perçoit un salaire élevé, c'est qu'il est très productif. On peut transformer cette idée en théorie du ruissellement si l'on ajoute que les gens très productifs, en tant que groupe, ont une productivité marginale décroissante, et donc s'ils sont payés à leur productivité marginale, ils rapportent, en moyenne, davantage à la société qu'ils ne lui coûtent. Stiglitz est un immense économiste, mais il fait là preuve de paresse intellectuelle. Sa référence à la théorie de la productivité marginale comme déterminant du salaire donne une vision largement biaisée de ce que dit la théorie standard sur le sujet.

En premier lieu, cette théorie s'appuie sur l'hypothèse de marchés concurrentiels. Or, les défenseurs de cette théorie ne prétendent pas que les marchés le soient réellement. Dans la tradition de Léon Walras, la référence à un marché concurrentiel est une sorte de benchmark à comparer avec la réalité. Rappelons, par exemple, que Walras était favorable à ce que les chemins de fer soient gérés par l’État, car il lui semblait improbable qu'un marché concurrentiel puisse émerger dans ce secteur d'activité. Or, pour Walras, un monopole privé est bien plus préjudiciable qu'un monopole public. Si certains dirigeants de grandes sociétés gagnent beaucoup d'argent grâce à l'endogamie des conseils d'administration, ou grâce aux faveurs qu'ils obtiennent de leurs amis dans le monde politique, c'est au nom de la théorie dominante qu'un économiste pourra dénoncer leurs revenus comme injustifiables car supérieurs (nettement !) à leur productivité marginale. Pour ce qui concerne les authentiques innovateurs, dont on peut penser que leur rémunération élevée est justifiée, il y a bien longtemps que les économistes ne considèrent pas leurs revenus élevés comme la manifestation de leur productivité marginale, mais comme une rente Schumpeterienne, avec ses bons côtés (incitatifs) et ses mauvais côtés (les inventions brevetés sont vendues trop chères).

En second lieu, même en admettant que des salaires élevés puissent traduire une productivité marginale élevée, cela ne signifie nullement qu'il convient de ne pas les taxer. L'économie la plus standard est utilitariste, et à ce titre, favorable à la redistribution des richesses, dans la mesure où enlever 100 euros à un riche pour les donner à un pauvre accroît davantage le bien-être du pauvre que ne détériore celui du riche. Il faut donc regarder la théorie dominante avec bien peu d'impartialité pour en déduire qu'elle contient une théorie des salaires favorable aux inégalités, et encore plus au ruissellement.

On peut multiplier les exemples à volonté. En parlant de la courbe de Kuznets, qui prétend que le développement économique crée des inégalités avant de les réduire. En parlant de Dollar & Kraay qui montrent que le niveau de vie des 20% les plus pauvres d'un pays est très corrélé avec le niveau de vie moyen.

Pour résumer, un dirigeant politique qui voudrait s'abriter derrière l'économie pour justifier des politiques pro-riches pourrait trouver quelques références, mais certainement pas pour n'importe quelle politique pro-riche, et certainement pas en s'abritant derrière un "toutes les études montrent que (...)".

De façon parfaitement symétrique, quelqu'un voulant critiquer l'économie dominante en dénonçant la théorie du ruissellement dont elle serait la justification produirait, ce faisant, une critique parfaitement inadéquate. 

Ces précisions étant faites, je vais maintenant expliciter ce qui est présent en filigrane depuis le début de ce billet : la référence à la théorie du ruissellement m'irrite. Non pas parce qu'elle est une expression dont personne ne se revendique, mais parce qu'elle est tout simplement beaucoup trop imprécise. Pour vous en convaincre, je vais vous donner quelques énoncés différents de cette théorie, qui pourraient faire l'objet de tests empiriques différents :

"La distribution relative des revenus tend à être constante, donc si les riches s'accaparent une part disproportionnée des fruits de la croissance pendant un temps, le retour à la normal finira par bénéficier aux pauvres"

"Certaines politiques sont bénéfiques à la croissance et profitent aux riches, si bien qu'accompagnées d'une politique fiscale adéquate, elles peuvent également bénéficier aux pauvres"

"Les pays dans lesquels les x% les plus riches sont les plus riches sont également ceux où les y% les plus pauvres sont les plus riches"

"Les pays dans lesquels les x% les plus riches voient leur revenu augmenter le plus rapidement sont ceux dans lesquels les y% les plus pauvres voient leur revenu augmenter le plus rapidement"

"Le revenu des plus pauvres suit une courbe en cloche par rapport au niveau d'inégalités"

"Des taxes trop importantes sur le patrimoine ou les hauts revenus découragent l'investissement et sont, in fine, néfastes pour les plus pauvres"

"Des taxes trop importantes sur le patrimoine ou les hauts revenus génèrent de l'évasion fiscale et produisent, in fine, une baisse des recettes fiscales, au détriment des plus pauvres"

(...)

Idéalement, il faudrait trouver un sobriquet pour chacune de ces variantes possibles de la théorie du ruissellement afin de clarifier le débat. Mais ce serait probablement surestimer la bonne foi de ceux pour qui les sciences humaines ne sont qu'un prétexte à une politique de classe, et la vaillance des militants qui préfèrent n'affronter que des hommes de paille.

jeudi 1 février 2018

Les tondeurs de pelouse sont-ils des improductifs ?

"Cartographe encarté', un abonné de Twitter, pose une question beaucoup plus intéressante qu'il n'y parait, si l'on se donne la peine de faire abstraction de son petit sous-entendu idéologique :

Je tonds la pelouse devant chez moi, je ne travaille pas. Un employé de la mairie tond la pelouse, il dépense de l'argent public. Un employé de Veolia tond la pelouse, il produit de la valeur et de la richesse.

Comment une même activité pourrait-elle être considérée différemment en fonction du contexte institutionnel de son exécution ? Voilà une belle occasion de digresser un peu.

Commençons par comparer la deuxième option à la troisième : une même activité correspond-elle à la même création de richesse selon qu'elle est exercée par le secteur public ou privé ? Un premier élément de réponse est de dire que la valeur ainsi produite est tout simplement identique. Dans l'exemple de la pelouse tondue par un fonctionnaire municipal ou par un employé de Veolia, c'est particulièrement flagrant, car dans les deux cas ce sont les contribuables qui paient. On a parfois tendance à faire une confusion entre le libéralisme économique, qui est une doctrine réclamant une faible intervention de l’État, et la défense du secteur privé. C'est négliger le fait qu'un État très interventionniste, soucieux de fournir de nombreux services publics, payés par l'impôt, à ses administrés, peut parfaitement faire appel à des sous-traitant privés. A la limite, on pourrait imaginer un État dont les dépenses représenteraient 75% du PIB d'un pays, et n'ayant absolument aucun fonctionnaire. Ou plutôt un seul fonctionnaire, qui organiserait toutes les adjudications. La police, l'enseignement, la fourniture d'eau, etc, seraient confiés à des sociétés privés ayant remporté des appels d'offre. Au fond, dans les deux cas, les contribuables payent des impôts, et se retrouvent avec des policiers dans les rues et des instituteurs dans les écoles. Le statut privé ou public de ces gens n'est qu'une affaire de paperasse.

C'est d'ailleurs pour cela que le calcul du PIB intègre le salaire des fonctionnaires. Mais est-on sûr que la valeur produite est bien identique dans les deux cas de figure ? Cette question est au cœur du travail de l'économiste Ronald Coase. Pour lui, lorsque le responsable d'une organisation (ici l'Etat) hésite entre faire exécuter une tâche par ses salariés (ici les fonctionnaires) ou par des sous-traitants, il doit comparer deux choses : les coûts de transaction, qui correspondent à l'élaboration et la mise en œuvre des contrats avec les sous-traitants, et les coûts d'organisation qui correspondent à la gestion d'une grande structure. Si les coûts de transaction sont les plus importants, mieux vaut faire le travail en interne, pour s'éviter de passer son temps à se coordonner avec les sous-traitants. La relation hiérarchique est plus simple : si une pelouse doit être tondue dans un jardin public, un chef de service envoie un de ses gars faire le travail. Mais cette réactivité a un prix : devoir gérer une grosse organisation. Si les coûts d'organisation sont prohibitifs, mieux vaut accepter de devoir renégocier de temps en temps les termes d'un contrat avec un sous-traitant, qui se débrouillera avec ses propres coûts d'organisation.

Dans le cas des services publics, la sous-traitance comporte un autre attrait : elle permet de réconcilier action publique, pour laquelle l'Etat dispose d'un monopole, et concurrence, via des appels d'offre, qui permettent de choisir les candidats ayant les coûts les plus faibles. Si les contrats sont rédigés intelligemment, ils permettent également d'inciter le sous-traitant à optimiser son rapport qualité/coût. Jean Tirole a abondamment travaillé sur ces sujets (cf par exemple ce manuel coécrit avec JJ Laffont).

Mais attention, tout n'est pas rose dans la sous-traitance ! Oliver Hart, récent prix Nobel d'économie, avait vivement critiqué la privatisation des prisons américaines, dans un article coécrit avec Andrei Shleifer et Robert Vishny en 1997. Pour ces auteurs, le problème de la privatisation des prisons est le suivant : la qualité du service rendu par le prestataire n'est que partiellement observable. Le cahier des charges du sous-traitant comportera toujours une liste d'attendus (nombre de détenus par gardien, taille minimale des cellules, douches, etc). Mais une grande partie de ce qu'on attend d'une prison ne se mesure pas facilement, notamment en matière de traitement humain des détenus et de perspectives de réinsertion. Il est alors dans l'intérêt du sous-traitant, s'il souhaite conserver son marché, de réduire ses coûts au détriment de tout ce qui n'est pas observable. Non qu'il manque intrinsèquement d'humanité, mais la concurrence le pousse à agir ainsi ou à sortir du marché. Mieux vaut, dans ces cas-là, confier la tâche à des fonctionnaires ayant un emploi à vie, qui n'auront rien à perdre à laisser parler cette humanité.

Une autre critique de la sous-traitance des activités publiques nous est donnée par un économiste nettement plus radical : James Galbraith. Partageant avec son père une grande méfiance pour les grandes entreprises, Galbraith les accuse d'avoir formé une coalition avec l'Etat. Ainsi, le néolibéralisme ne serait pas une idéologie du marché, visant à la disparition de l'Etat, mais bien une idéologie de l'Etat mis au service des intérêts des grandes multinationales. A l'en croire, le choix des administrations de sous-traiter une partie de leurs services auprès du privé n'aurait que peu à voir avec la recherche d'un meilleur rapport qualité-prix, ou avec un arbitrage entre coûts de transaction et coûts d'organisation. La motivation réelle serait, dans une logique de copinage, de faire profiter les grandes entreprises de contrats juteux, et peu risqués car financés par l'impôt (je mets mon petit billet sur le fait que le twittos "cartographe encarté" se reconnaitrait dans cette analyse)

Jusqu'ici, nous avons sous-entendu que ce cher tondeur de pelouse créait de la richesse s'il tondait pour Veolia, et nous nous sommes convaincus qu'il en créait aussi s'il tondait pour la mairie de sa ville. Et si c'était l’inverse ? Et si cette activité était tout simplement stérile, au plan économique, qu'elle soit exercée par Véolia ou par la mairie ? Après tout, de l'herbe coupée, ça ne se mange pas (enfin ça ne doit pas être très bon), ça ne se thésaurise pas ! Le salaire de ce brave travailleur n'est-il pas simplement un transfert de revenu de la part de secteurs productifs, tel que le secteur automobile ou l'agriculture ?

Si cette question vous fait lever les yeux au ciel, c'est que vous êtes de bons économistes. Il est évident que dès lors que quelqu'un est prêt à payer un travailleur pour que sa pelouse soit tondue, c'est que cette tonte a, à ses yeux, une valeur au moins aussi élevée que le salaire du tondeur. De la même manière, si le tondeur accepte de tondre, c'est que ce salaire a plus de valeur à ses yeux que toute activité de loisir à laquelle il a renoncé pour tondre. Les deux co-contractants sont gagnants à l'échange, il y a donc bien création de valeur. Peu d'économistes contemporains en disconviendraient. Pourtant, ce qui nous apparait aujourd'hui comme une évidence ne l'a pas toujours été.

Ainsi, pour le physiocrate François Quesnay, seuls les travaux agricoles avaient de la valeur. La raison à cela ? Plantez un grain de blé, vous en récolterez plusieurs. Vous pourrez donc manger et replanter un autre grain de blé. Le charpentier qui fabrique votre toit est fort sympathique, et vous lui payez quelque chose en échange du service rendu, mais pour les physiocrates, il ne s'agit là que de redistribution de la vraie valeur, celle créée par l'agriculture. Alors, me direz-vous, les physiocrates ne sont pas vraiment des économistes, leurs errements on sans doute été corrigés par les pères fondateurs de la discipline !

Eh bien pas tant que ça. Adam Smith, le premier économiste classique, pour ne pas dire le premier économiste tout court, disait ceci au sujet des physiocrates dans la Richesse des Nations (l'extrait est tiré de cet excellent manuel d'histoire de la pensée) :

"Bien qu'en représentant le travail qui est employé à la terre comme le seul travail productif, les notions que [le système physiocratique] inculque soient peut-être trop étroites et limitées, il n'en reste pas moins qu'en représentant la richesse des nations comme consistant, non dans les richesses inconsommables de la monnaie, mais dans les biens consommables annuellement reproduits par le travail de la société, et en représentant la liberté parfaite comme le seul moyen efficace pour rendre cette reproduction annuelle aussi grande que possible, sa doctrine semble être à tout point de vue aussi juste qu'elle est généreuse et libérale".

Si vous suivez bien le raisonnement, Smith donne tort, bien sûr, à Quesnay, de considérer que seul le travail agricole produit de la valeur. Mais la généralisation qu'il appelle de ses vœux n'est pas si générale car elle se limite aux biens consommables, c'est-à-dire aux biens matériels. L'artisanat, l'industrie, s'ajoutent donc à l'agriculture dans la catégorie des activités productives. Mais les services, toujours pas.

Il faudra attendre Jean-Baptiste Say, un des meilleurs disciples de Smith, pour pousser la généralisation. Un physiocrate, Dupont de Nemours, scandalisé que Smith puisse avoir eu l'outrecuidance de considérer que le travail d'un potier puisse créer des richesses, écrit une lettre à Say lui demandant si, tant qu'à faire, il ne faudrait pas voir de la création de valeur dans le travail des prostituées. Il ne s'attendait sûrement pas à cette réponse (ibidem) :

"Selon notre respectable Quesnay, et ses respectables disciples, la matière seule est une marchandise quand elle est vendable. Suivant Smith et son école, le travail est une marchandise aussi quand il est vendable ; et suivant l’humble élève qui vous écrit, le travail du barbier est une marchandise vendable également, quoiqu’il m’ait ôté ma barbe et ne m’ait laissé aucune matière à la place. Il m’a donné ses services, et moi je les ai consommés ; mais, quoique détruits, ils ont produit, puisqu’ils ont satisfait à l’un de mes besoins, de même que la pomme que vous avez mangée à votre dessert, qui est détruite aussi, mais qui était une richesse, puisqu’elle pouvait vous faire quelque bien.

Ah ! que vous devriez convenir avec moi que nos biens sont tout ce qui satisfait à quelqu’un de nos besoins ; et que les services qu’on nous rend sont une marchandise que nous consommons, pour notre bien, et quelquefois pour notre mal. Mais ce n’est pas la faute du service ; de même que l’indigestion que nous donne un fruit, n’est pas la faute du fruit.

Quand ces biens nous sont donnés par la nature, comme la santé, l’attachement de nos femmes, ce sont des richesses gratuites, les plus précieuses de toutes, comme la lumière du soleil ; mais quand nous les demandons à des étrangers, à des gens qui ne nous doivent ni leur temps, ni leurs peines, il faut bien leur donner quelque chose en échange. C’est le cas des services rendus par nos domestiques.

Appliquez tout ce verbiage à ces demoiselles, et vous aurez l’explication d’une conséquence incontestable de la doctrine de Smith, quoique lui-même ne l’ait pas aperçue ; mais vous repousserez la conséquence, comme vous avez repoussé la doctrine de Smith, et moi je n’en serai pas moins le constant admirateur de vos talens et de vos vertus."


Ce n'est donc pas la matérialité des fruits de notre travail qui détermine sa valeur, mais bien le fait que des gens soient prêts à payer pour qu'on les lui fournisse. C'est une évidence aujourd'hui, mais ça ne l'a pas toujours été. Et d'ailleurs, est-ce vraiment une évidence ? Le fétichisme industriel et les cris d'orfraie poussés par ceux qui s'indigne de ce que l'insee inclue le trafic de drogue dans le PIB pourraient en faire douter.

Nous n'avons parlé, jusqu'ici, que de deux tondeurs employés, l'un par la mairie, l'autre par véolia. Quid de ce dilettante qui tond son propre jardin ? S'il faisait ce travail pour autrui, il aurait un salaire, et cette activité serait comptabilisée dans le PIB. Pourquoi l'insee ne mesure-t-il pas un salaire fictif qu'il se paye à lui-même pour valoriser cette production domestique ?

Le grand Samuelson lui-même expliquait à ses étudiants qu'un homme qui se marie à sa femme de ménage faisait baisser le PIB. Il en va de même, parité oblige, d'une femme épousant son jardiner. Doit-on en conclure que, au prétexte que l'insee ne la mesure pas, la valeur du travail domestique est nulle ? Il ne faut pas faire dire au PIB plus que ce qu'il ne dit. Le PIB n'est pas une mesure du bonheur, et des tas de choses en sont exclues. Tout professeur de comptabilité nationale qui se respecte le dit généralement à ses étudiants dès les premières heures de cours. Il est des choses si impalpables que le comptable national se doit de renoncer à les évaluer. Le travail domestique n'est pas taxé, il n'est pas l'objet d'un transfert monétaire. Par conséquent, oublier de le compter n'a pas beaucoup d'importance pour les décisions politiques qui se basent sur l'évolution du PIB (fiscalité, politique monétaire...).

Mais il est important, néanmoins, de savoir qu'il existe. En 2004, l'économiste américain Edward Prescott expliquait par cette production souterraine la différence de temps de travail entre européens et américains. Le caractère non-taxable de la tonte de son propre jardin est centrale dans son analyse. Car admettons que, d'une manière ou d'une autre, je souhaite que mon jardin soit tondu. Comment décider si je vais le faire moi-même (temps de travail 1 heure, temps de travail mesuré 0, contribution au PIB 0) ou si je vais embaucher un pro pour le faire (temps de travail 1 heure, temps de travail mesuré 1 heure, contribution au PIB 30 euros) ?

La réponse donnée par la microéconomie à cette question s'appuie sur la notion de coût d'opportunité. Tondre moi-même ma pelouse ne me coûte rien... en apparence ! Mais quitte à perdre une heure, n'aurais-je pas pu consacrer cette heure à exercer mon travail pour percevoir un complément de revenu ? Si je suis prêt à travailler une heure pour que mon jardin soit tondu, j'ai deux possibilités. Soit je le tonds moi-même, ça ne me coûte ni ne me rapporte rien ; soit je consacre une heure de plus à exercer mon métier, et je consacre l'argent ainsi gagné à embaucher un tondeur de gazon professionnel. Si le professionnel me coûte 30€, je dois comparer cette somme avec ce que me rapporte une heure de mon travail. Si elle me rapporte 40€, j'ai intérêt à travailler et à en utiliser 30 pour payer un pro. Ma pelouse sera aussi bien tondue, mais j'aurai gagné 10€. Si mon heure de travail ne me rapporte que 25€, j'ai intérêt à renoncer à ces 25€ afin de tondre moi même cette satanée pelouse.

Mais alors, pourquoi les américains travaillent-ils plus que nous ? "Les taxes" répond Prescott. Supposons, en reprenant l'exemple précédent, que, dans les deux pays, le salaire toutes charges comprises soit de 50€ de l'heure. Si le système fiscal américain ponctionne 20% de cette somme, alors le salaire net tombe à 40€, et reste donc supérieur au prix de la tonte par le pro. Si le système fiscal français en ponctionne 50%, le net tombe à 25€, et j'ai intérêt à tondre ma pelouse moi-même. On ne viendra pas me réclamer des taxes. Dans un cas comme dans l'autre, j'aurai bien travaillé une heure de plus pour couper de l'herbe. Mais les statistiques officielles ne le verront que dans un des deux cas.

Après cette petite escapade dans le monde tordu du raisonnement économique, on peut donc reformuler le problème de départ comme suit :

Je tonds la pelouse devant chez moi, je suis un évadé fiscal. Un employé de la mairie tond la pelouse, il vit au crochet du contribuable. Un employé de Veolia tond la pelouse, il est un complice du pillage de l'Etat par les multinationales.

Bref, les gens qui tondent leur pelouse sont des salauds. Surtout le dimanche à l'heure de la sieste.

lundi 20 novembre 2017

Des chiffres et des lettres : qu'y a-t-il de mal avec les modèles macroéconomiques ?

Voilà un billet que je voulais écrire il y a bien longtemps. Lawrence Christiano et ses co-auteurs me font sauter le pas. Dans un document récent, ils prennent la défense du travail des macroéconomistes contemporains, et de leur principal outil de travail qui s'appelle les modèles DSGE. Étant donné que ces modèles constituent en quelque sorte l’orthodoxie macroéconomique, et qu'ils n'ont pas très bien fonctionné pendant la crise, il est de bon ton soit de leur rentrer dans le lard, comme le font beaucoup, soit de la jouer discrète quand on en est un partisan. Christiano et al, pour leur part, en prennent la défense, de façon assez agressive. Les gens qui critiquent ces modèles sont tout simplement des feignasses ("People who don’t like dynamic stochastic general equilibrium (DSGE) models are dilettantes"). Pour Noah Smith, cette agressivité ne risque pas de convaincre grand monde. Il caricature le propos comme suit : "Vous n'êtes pas qualifiés pour juger notre travail, fermez-la et continuez à nous envoyer des chèques".

Il a un peu raison, la condescendance n'encourage pas l'interlocuteur à l'ouverture d'esprit. Mais soyons ouverts quand même.

Leur article comprend des arguments intéressants, mais également un argument qui, paradoxalement, met en lumière ce qui cloche avec l'approche utilisée par ces modèles.

Commençons par expliquer brièvement ce que sont les modèles DSGE (pour Dynamic Stochastic General Equilibrium). En macroéconomie, on doit tenir compte des interactions entre les différents secteurs de l'économie (marché du travail, marché financier, marché des biens et services...). C'est pourquoi, en règle générale, on travaille sur des modèles d'équilibre général, qui tiennent compte de toutes ces interactions. Il y a bien longtemps que les économistes ont compris l'importance des anticipations sur les comportements économiques. Les modèles DSGE sont donc dynamiques, en ce sens qu'ils ne se focalisent pas sur une année isolée, mais ils représentent le fonctionnement de l'économie sur plusieurs années. Plus précisément, ces modèles comportent une hypothèse d'anticipations rationnelles de la part des agents économiques. Cela signifie 1- que les décisions prises aujourd'hui sont impactées par ce qu'on attend du futur, 2- en moyenne, les agents économiques ne font pas d'anticipations systématiquement biaisées du futur. Ces deux points permettent de définir un état stationnaire, dans lequel l'inflation est constante, de même que le PIB (en fait, il peut suivre un trend pour tenir compte de la croissance à long terme) et le taux d'intérêt de la banque centrale (pour prendre les variables les plus fondamentales). Dans cet état stationnaire, par définition, rien ne bouge, et tout le monde anticipe correctement le futur.

Mais soudain, un choc inattendu vient perturber cet équilibre. Par exemple, les banques gèlent les crédits qu'elles octroient à leurs clients. Boom, le PIB baisse, ainsi que l'inflation, on quitte l'équilibre ! C'est la dimension Stochastique du modèle. Que se passe-t-il alors ? Personne n'avait anticipé le choc, mais une fois qu'il s'est produit, chacun sait précisément ce qui va s'ensuivre. La banque centrale va baisser son taux d'intérêt pour stimuler à nouveau l'activité. L'inflation va repartir à la hausse, les taux d'intérêt, après la baisse initiale vont progressivement remonter, etc. On va, au bout de quelques temps, retrouver l'équilibre. Cela pourrait même se faire instantanément, s'il n'y avait des rigidités nominales (des prix qui ne peuvent pas s'ajuster tout de suite) freinant le retour à la normale.

Les modèles, partant de là, peuvent supporter des tas de variantes : rigidités des salaires, modélisation du secteur financier, modélisation de l'endettement, etc. Dans tous les cas, ces modèles sont calibrés, selon l'expression consacrée, pour reproduire les données d'un pays donné. Autrement dit, les paramètres du modèle sont choisis de manière à s'approcher au plus près des variations observées sur une période donnée (20 ans, 30 ans...) du PIB, de l'inflation, du taux d'intérêt (...) Ceci étant fait, on considère le modèle comme une maquette du vrai monde, et on peut simuler des chocs. Par exemple, tel pays envisage un programme d'austérité fiscale. Quelle contraction de l'activité peut-on en attendre, et combien faudra-t-il d'années pour un retour à la normale si la politique est mise en œuvre ?

Pourquoi ces modèles sont-ils critiqués ? Parce que leurs prévisions ont en général été trop optimistes sur la capacité de résilience des économies confrontées à la crise de 2008. A les en croire, la crise aurait dû être courte et d'intensité assez modeste. En science humaine (l'économie en est une) lorsque l'histoire donne tort à une théorie, ses partisans peuvent être tentés de se retrancher dans leur mauvaise foi, ses détracteurs de toujours jubilent et entament la curée. Ces deux attitudes sont également contreproductives.

L'article de Christiano donne un certain nombre d'arguments pour défendre les DSGE. Parmi eux, on mentionnera par exemple le fait que, dès avant la crise, certains modèles avaient déjà commencé à évoluer pour tenir compte des dysfonctionnements financiers, et que cette tendance s'est évidemment poursuivie avec la crise. S'ils ne l'avaient pas fait avant, c'est que personne ne prévoyait une crise d'une telle ampleur, et que les modèles fonctionnaient bien dans des contextes plus calmes.

Mais l'argument le plus intéressant est le suivant : certaines options politiques comportent des effets attendus positifs et d'autres négatifs. Seuls des modèles calibrés sur données réelles permettent d'évaluer lesquels l'emportent. Un pays envisage de dévaluer sa monnaie ? Il va stimuler ses exportations, mais augmenter le poids de la dette de ses ménages, si elle est libellée en monnaie étrangère. Quel effet prendra le dessus ? Un pays envisage d'accroître sa règlementation bancaire ? Il va accroître la  stabilité financière, mais aussi freiner certains investissements. Quel effet prendra le dessus ? Pour Christiano, on a beau jeu de baratiner sur les avantages et les inconvénients d'une réforme. Ce qui compte, c'est de savoir quelle sera l'ampleur de ses effets, et à quel niveau la mettre en œuvre. Les dilettantes, pour reprendre son expression, se contenteront de dire 'ah, ça c'est une bonne idée, mais attention, il y a un risque'. Les économistes qui maitrisent l'art des DSGE feront des prévisions chiffrées pour évaluer l'ampleur de ces risques.

"Prévisions chiffrées", le mot est lâché.

L'argument est suffisamment intéressant pour être pris au sérieux. Mais pour ma part, j'ai le sentiment que, paradoxalement, en mettant l'accent sur la capacité de ces modèles à produire des chiffres, Christiano met le doigt sur ce qui, justement, pose problème avec l'approche DSGE. La macroéconomie est une des rares spécialités, en économie, où l'on s'attend à ce qu'une théorie soit immédiatement présentée sous forme d'un modèle calibré, et donc chiffré. Ça n'a pas toujours été le cas, et les autres spécialités en économie fonctionnent aujourd'hui encore de manière assez différente. 

Dans les autres spécialités, une intuition se formule de façon théorique, dans un modèle où les variables et les paramètres sont représentés par des lettres. (Soit Y le revenu d'un consommateur, X son nombre d'années d'études, beta son aversion au risque, etc). Ces modèles sont, la plupart du temps, résolus, dans le sens où l'on est capable d'exprimer la valeur de chaque variable en fonction des paramètres du modèle. Cette démarche permet d'identifier, théoriquement, l'impact d'une variation des paramètres sur les variables qui nous intéressent. Par exemple, l'impact d'un contrôle de la démographie sur le niveau de développement d'un pays, l'impact d'une diminution des barrières douanières sur le commerce entre pays, l'impact d'une taxe carbone sur les émissions de CO2, l'impact d'une subvention à l'éducation sur le salaire, etc.

C'est uniquement lorsqu'on passe à la phase d'évaluation empirique qu'on tente de chiffrer ces effets, en confrontant le modèle aux données disponibles. Bien sûr, s'il s'agit d'en faire des recommandations politiques, on sera tenté de s'appuyer sur ces résultats chiffrés pour donner du corps à la recommandation. Mais au fond, si les tests empiriques vont dans le sens de la théorie, ce sont les lettres de la théorie qui restent, plus que les chiffres des tests.

En macroéconomie, si je souhaite attirer l'attention sur un effet particulier, par exemple l'impact des banques en ligne sur l'efficacité de la politique monétaire, je devrai dériver ce que changent ces banques en ligne sur les principales équations du modèle, prises isolément, mais pour convaincre la communauté que cet effet est intéressant, il faudra que j'arrive à simuler des données existantes avec mon modèle. Je ne pourrai pas me contenter de résultats théoriques (caveat : j'ai probablement une connaissance partielle de ce qui se publie en macroéconomie, ce que je décris là est la manière, peut-être biaisée dont je vois les choses ; je peux me tromper).

Pourquoi cette spécificité ? Je vois deux raisons possibles.

La première raison est une raison de fond. La macroéconomie est une discipline particulièrement ardue, avec toutes ces interactions, et cette contrainte qu'on s'est fixée de raisonner en dynamique. Dès lors, il est difficile de dériver des résultats théoriques de manière purement analytique. Autant dire que cette raison ne me semble pas très bonne. Dans une défense un peu tiède des modèles DSGE, Olivier Blanchard reconnait que, bien souvent, les intuitions derrière les modèles proposés par les chercheurs peuvent être mises en lumière dans des versions amendées de modèles plus simples, tels qu'ISLM. L'avantage de passer d'un modèle intuitif clair, qu'on peut présenter sous forme de graphique, à une version obscure et insoluble analytiquement ne me saute pas aux yeux (Blanchard est plus tolérant sur ce point).

La deuxième raison est que de riches institutions sont demandeuses de prévisions chiffrées. Le FMI, la BCE, l'OCDE, les grands États... tout le monde veut son équipe d'économistes pour faire des prévisions, et on est prêt à payer cher pour qu'ils développent leurs propres modèles de prévision. Christiano explique que lorsque les économistes du FMI font à Mme Lagarde des prévisions basées sur les résultats des DSGE, ils transforment ça en langage intuitif et donnent les ordres de grandeur fournis par leurs simulations. Ce qu'il décrit ressemble passablement à un problème d'asymétrie informationnelle. Quelques puissants veulent leurs modèles macroéconomiques dont ils ne sont pas capables de comprendre le fonctionnement, mais les développeurs leurs disent : "En gros, ce que dit le modèle c'est blablabla, et d'après nos simulations qu'on ne peut pas vous expliquer, les ordres de grandeurs sont entre tant et tant".

S'il y a une demande, après tout, ne faut-il pas la satisfaire ? Eh bien en l'espèce, je pense que non. La raison est la suivante : quel que soit le modèle utilisé, si on veut faire de la prévision chiffrée en macroéconomie, on ne peut avoir de bons résultats que lorsqu'il n'y a pas de gros choc, c'est à dire quand la prévision ne sert pas à grand chose. Lorsque les chocs sont importants, les modèles chiffrés sont condamnés à échouer. Et à la rigueur, même dans ces situations, une bonne analyse qualitative est probablement plus utile qu'une prévision chiffrée forcément fragile.

Imaginez-vous dans la peau des trois derniers responsables de la fed : Alan Greenspan, Ben Bernanke et Janet Yellen, et demandez vous de quel type d'éclairages vous avez besoin pour mener votre politique monétaire. Greenspan n'a pas traversé de situations aussi difficiles que ses deux successeurs. La crise des dot-coms est peut-être ce qu'il a eu de plus difficile à gérer. Concrètement, comment se passe la gestion de la politique monétaire pendant la grande modération ? On jette un œil à des indicateurs conjoncturels. Indice de la production, évolution du chômage, des salaires, des prix. Petit coup d’œil sur la bourse et sur les prix de l'immobilier. Sur les différents spreads de taux d'intérêt également. Puis on guette. L'inflation s'accélère ? On augmente le taux d'intérêt. Selon le principe de Taylor, on l'augmente plus que ce qu'a augmenté l'inflation, pour que le taux réel augmente. En général, ça calme le jeu. Attention, coup d’œil au chômage, il ne faudrait pas que la hausse des taux soit trop brutale... on les re-diminue progressivement lorsque la menace inflationniste est passée. Bim ! Une petite crise boursière ! Aller, on rassure les marchés, on fournit des liquidités, on baisse les taux. Tout ça, c'est du pilotage. Il y a des questions techniques, là dessous. Mais elles portent plus sur des choses très empiriques telles que les délais avant que les variations de taux portent leurs fruits, que sur les fondements microéconomiques des modèles ! Soudain, vous êtes Ben Bernanke, et paf, vous vous prenez la crise des subprimes en pleine poire. Du jamais vu depuis 1929. Vite, les modèles, que disent-ils ? Ils se plantent ! Ils n'ont rien vu venir et ils surestiment la reprise qui n'arrive pas, bien au contraire. On fait quoi les gars ? Bah... on reprend la bonne vieille macro en lettres des années 70, et on y voit : que les dépenses publiques sont utiles dans ce contexte, que la baisse des taux à court-terme va vite buter sur un plancher et qu'il faut commencer à cibler les taux à long terme avec des politiques non conventionnelles, qu'il faut éviter aux banques une crise de liquidité qui risque de déraper en problèmes de solvabilité. "Oui mais combien ?" réponse : "on met le paquet !". "Oui mais jusqu'à quand ?" réponse : "jusqu'à ce que ça redémarre".

Derrière la remise en cause aujourd'hui très visible des modèles DSGE, il n'y a pas toujours un bon diagnostic. Il y a souvent l'espoir qu'un changement de paradigme va redistribuer les positions au sein de ce vaste terrain de jeu qu'est le monde académique. Ce fut le cas dans les années 70. Pourquoi pas aujourd'hui ? Tous ceux qui se sont fait un petit nom dans une spécialité un peu marginale espèrent que le jour de gloire est arrivé. Maintenant que les grandes institutions ont compris que les modèles DSGE n'étaient pas à la hauteur, il faut les convaincre que la clé d'un bon modèle de prévision est : la modélisation multi-agent, la prise en compte des biais cognitifs, les esprits animaux, le machine-learning, etc.

Il y a peut-être de bonnes choses dans tous ces nouveaux courants, mais ils ne répondent aucunement au vrai problème de la prévision chiffrée en macro : la macroéconomie est tout simplement trop complexe pour être l'objet de prévisions chiffrées fiables lorsque les chocs sont importants. Ça ne veut pas dire que la recherche en macroéconomie n'est pas utile. Elle doit fournir des règles de bonnes conduite en période normale, et des principes d'intervention efficaces en périodes de crises. Bien entendu, les périodes de crises comportent de l'incertitude. Une dévaluation peut stimuler les exportations mais asphyxier les débiteurs. Alors que faire ? N'en déplaise à Christiano, utiliser des modèles qui ne marchent pas n'est pas forcément une meilleure réponse que le doigt mouillé, si le doigt mouillé est connecté à un cerveau qui comprend quelques mécanismes économiques fondamentaux. Au fond, il n'est pas très difficile de savoir de combien va augmenter le poids de la dette extérieure si l'on dévalue de 10%, ni d'estimer de combien vont augmenter les exportations nettes. Et si on se trompe ? On avisera, on renégociera, on fera défaut... pas très pro ? Vous pensez que la Troïka et ses modèles DSGE ont fait mieux avec la Grèce ?

Le vrai changement salutaire pour la macroéconomie consiste peut-être à abandonner cette prétention à vouloir prédire l'avenir, à se re-concentrer sur l'étude qualitative des mécanismes à l’œuvre, et à coupler cette étude de tests empiriques, comme le font les autres spécialités en économie. Les travaux empiriques existent, bien sûr, et ils sont peut-être ce qui se fait de mieux dans la macroéconomie contemporaine. Mais ils sont passablement déconnectés de ce qu'est devenu la macroéconomie théorique.

Un tel objectif n'est peut-être pas très ambitieux, mais parmi les objectifs atteignables, il n'y a probablement pas mieux.

mardi 14 novembre 2017

Qui a inventé la courbe de Phillips ? (c'est Keynes bien sûr...)

James Forder, historien de la pensée économique d'Oxford, est entré en guerre contre la manière dont on présente habituellement l'histoire de la courbe de Phillips. Ses idées sont reprises par deux interventions passionnantes aux dernières Journées de l'économie : une de Goulven rubin, une autre d'André Orléan . Le "mythe" qu'il combat peut se résumer de la manière suivante :

1- Il manque une théorie de l'inflation à la théorie Keynésienne

2- William Phillips établit statistiquement un lien négatif stable entre inflation et chômage dans les années 50.

3- Les keynésiens d'après guerre en font le chaînon manquant de la théorie keynésienne : les pouvoirs publics doivent faire un choix entre {inflation faible + chômage élevé} et {inflation forte + chômage faible}

4- Friedman critique cette vision des choses qui ne tient pas compte de l'ajustement des anticipations qui dégrade les termes de l'arbitrage entre inflation et chômage

5- La stagflation des années 70 lui donne raison

Pour Forder, cette histoire est fausse. Phillips lui-même ne croyait pas vraiment en la stabilité de sa courbe, comme il l'aurait confié très tôt au jeune Friedman. Certes, Solow et Samuelson, dès 1960, s'appuient sur les travaux de Phillips pour dire qu'il existe un choix entre inflation et chômage, mais ils le font dans un article qui dit explicitement que les anticipations d'inflation peuvent changer, et donc que les termes de ce choix ne sont pas constants. Les artisans de la révolution de la macroéconomie des années 70, Friedman et Lucas, ont fait évoluer la discipline en mettant l'accent sur l'importance des règles pour l'un, et sur l'intérêt de raisonner sur des modèles d'équilibre général dynamiques pour l'autre. Mais dire qu'ils ont expliqué à une génération de keynésiens incrédules que les anticipations d'inflations étaient un facteur d'inflation et donc que l'arbitrage inflation-chômage ne tenait pas dans le long terme est tout simplement faux.

J'avoue être un peu ébranlé par ces révélations, car je croyais à ce mythe avant de découvrir les travaux de Forder.

Sur cet aspect de la question, je n'ai pas grand chose à ajouter, d'autant que je ne suis pas un historien de la pensée économique.

En revanche, je tique un peu sur le premier point ci-dessus, qui ne semble pas être le focus de Forder, et qui ressemble à un mythe lui-aussi. il s'agit de l'idée selon laquelle la théorie keynésienne ferait l'impasse sur l'inflation. Que la courbe de Phillips puisse être présentée comme le chainon manquant de la théorie keynésienne m’horripile. Je n'aime pas beaucoup la théorie générale de Keynes (difficile à lire, trop de précaution sur les limites de ce qu'il dit avant même qu'il ne le dise, pas assez direct...). Mais un des rares chapitres qui m'ait un peu marqué est le dernier, appelé "la théorie des prix", qui élabore quelque chose que n'importe qui, aujourd'hui, reconnaitrait comme étant une courbe de Phillips (avant l'heure, bien sûr).

Keynes commence par raisonner sur deux cas polaires : le chômage dans tous les secteurs vs le plein emploi.

Dans le premier cas, pour keynes, les prix sont rigides car, malgré le chômage, les travailleurs s'arrangent pour que leur salaire nominal ne diminue pas. L'inflation est donc nulle. Elle devrait être négative, mais les arrangements institutionnels font qu'elle est juste nulle. Par conséquent, dans ce cas, la courbe de Phillips est horizontale.

Dans le deuxième cas, celui du plein emploi, l'augmentation de la demande ne pouvant être satisfaite par des quantités, elle se traduit par de l'inflation. Autrement dit, la courbe de Phillips est, dans ce cas, verticale. Ces deux cas polaires sont résumés dans l'extrait suivant :

[...] l'accroissement de la quantité de monnaie ne produit absolument aucun effet sur les prix tant qu'il reste du chômage [...]. Aussitôt que le plein emploi est atteint, ce sont, au contraire, [les salaires] et les prix qui s'élèvent dans une mesure exactement proportionnelle à l'augmentation de la demande effective.

Plus loin, il explique qu'en réalité, certains secteurs peuvent être au plein emploi avant d'autres, si bien qu'entre ces cas polaires, la courbe de Phillips est penchée :

Dans la réalité [...] les prix, au lieu d'être constants lorsqu'il existe du chômage et d'augmenter proportionnellement à la quantité de monnaie lorsque le plein emploi est réalisé, montent progressivement à mesure que l'emploi augmente.

A moins que je rate quelque chose, ce chapitre peut être résumé par le graphique suivant :

Pour moi, pas de doute, c'est une courbe de Phillips.

Je le répète, je ne suis pas historien de la pensée. Pour un historien de la pensée, ce point est peut-être trivial. Mais il ne me semble pas inutile de le rappeler. Les manuels de macroéconomie qui s'appuient (encore !) sur IS-LM ont tendance à expliquer que la théorie keynésienne est une théorie à prix fixes, et que la "synthèse classico-keynésienne" s'obtient en y ajoutant une courbe d'offre globale, ou une courbe de Phillips.Il n'y a pas de synthèse qui tienne : cette courbe est déjà présente dans la théorie générale.


Bien sûr, il ne s'agit pas de dire que rien n'a été inventé après Keynes. La première chose qui saute aux yeux, est que rien ne se passe au-dessus de ce qu'il appelle le 'plein emploi'. En termes contemporains, on appellerait cette situation 'emploi d'équilibre' plutôt que 'plein emploi'. L'idée étant qu'on peut obtenir un niveau d'emploi supérieur à l'équilibre (baisse du chômage frictionnel, accroissement du temps de travail) mais moyennant une accélération de l'inflation. Autrement dit, un macroéconomiste d'aujourd'hui expliquerait certainement que la cible de la politique monétaire ne devrait pas être ce niveau d'emploi associé à une courbe de Phillips verticale, mais probablement un niveau inférieur.

Deuxième chose absente : les fameuses anticipations changeantes, qui rendent instable la relation inflation-chômage.

Cela dit, sur ces deux points, il faut faire la part des choses entre ce que Keynes n'avait pas vu et ce qui n'était tout simplement pas important dans le contexte des années 1930. Avec des taux de chômage atteignant les 25% dans certains pays développés, il n'est pas surprenant qu'on se focalise sur la manière de repasser de 25% à environ 0%, sans trop s'attarder sur le point de savoir si l'inflation dégénère à 0% ou un peu avant.

Quant à l'inflation, elle oscillait entre des valeurs négatives et très faiblement positives pendant la grande dépression, la question de son emballement n'était simplement pas d'actualité. La théorie générale a beau se prétendre 'générale', elle a quand même un contexte. Doit-on en conclure que Keynes pensait que l'arbitrage inflation-chômage était à termes constants ? Ce serait faire l'impasse sur ses écrits des années 1920 (compilés dans les essais sur la monnaie) dans lesquels il indique très explicitement que l'inflation et la déflation ont des effets réels uniquement parce qu'elles ne touchent pas tous les prix de façon uniforme.

Milton Friedman aurait dit "nous sommes tous Keynésiens". Pour le coup, ça n'est pas mythe.

mercredi 25 octobre 2017

La courbe de Phillips est-elle morte ?

Il y a un phénomène qui intrigue beaucoup les économistes en ce moment : alors que le taux de chômage américain est tombé à des niveaux très bas depuis maintenant de nombreux mois, l'inflation ne repart pas à la hausse. La courbe de Phillips semble donc prise en défaut. Selon cette courbe, l'inflation et le chômage varient en sens inverse, pour une valeur donnée de l'inflation anticipée par les agents économiques.

Comme la période est à la remise en cause des modèles qui ont fait l'orthodoxie depuis 30 ans, on est tenté de se tourner vers les théoriciens qui contestent le bien fondé de la courbe de Phillips.

A ma droite, Scott Sumner, qui a été brillant depuis le déclenchement de la crise, explique en deux posts (1 & 2) pourquoi la courbe de Phillips est un non-sens. Il réactive la théorie monétariste, en nous proposant d'imaginer une île d'auto-entrepreneurs (donc pas de chômeurs) utilisant un certain bien, disponible en quantité fixe, comme moyen de paiement. La vitesse à laquelle cette monnaie circule détermine le niveau général des prix. Si, soudain, on découvre un nouveau stock de cette monnaie, conduisant à un doublement de la quantité totale, chaque habitant de l'île va multiplier par 2 le prix de vente de ses produits suite à cette découverte, sans que le chômage n'y soit pour rien, puisqu'il n'y en a pas dans cette île d'autoentrepreneurs. Que se passe-t-il si on introduit une certaine forme de rigidité dans les prix ? Par exemple, certains autoentrepreneurs se sont engagés contractuellement à fournir un certain type de travail à un prix prédéterminé. Ces prix-là n'augmenteront pas, donc l'inflation ne sera pas immédiatement de 100% à cause de cette rigidité. Comme ces prix se retrouvent être trop faibles par rapport à tous les autres prix, les autoentrepreneurs concernés font face à une demande anormalement élevée, et ils travaillent plus que d'habitude. Lorsque les prix peuvent enfin changer, ils finissent par doubler eux aussi, et lesdits autoentrepreneurs se remettent à travailler comme avant. Conclusion : ce n'est pas le travail excessif qui crée l'inflation lorsque les prix sont rigides. C'est bien la monnaie qui crée l'inflation. Loin de créer l'inflation, l'excès de travail est au contraire un symptôme de cette rigidité des prix qui empêche l'inflation de prendre spontanément sa valeur "normale", égale au taux de croissance de la masse monétaire. Ainsi, s'il n'y a pas d'inflation aux USA, ça n'a rien à voir avec le chômage, c'est tout simplement parce que la banque centrale ne crée pas suffisamment de monnaie.

A ma gauche, Roger Farmer réactive pour sa part les esprits animaux de Keynes. Pour lui, la courbe de Phillips colle moins aux données des USA de ces 70 dernières années qu'une autre courbe de son cru : la "fonction de croyance" ("belief function"). Selon cette fonction, les agents économiques sont persuadés que le taux auquel le revenu nominal va croître entre cette année et l'année prochaine sera égal à celui auquel il a cru entre l'année dernière et cette année. Si l'individu moyen a vu son revenu exprimé en unités monétaires passer de 1000 à 1100 entre 2015 et 2016, alors on s'attend à ce qu'il passe de 1100 à 1210 de 2016 à 2017. Et comme les agents économiques s'attendent à ça, ils passent des conventions sur cette base, et l'anticipation finit par se réaliser. La banque centrale peut, naturellement, agir pour stimuler le revenu réel, mais sans impacter le revenu nominal. Si bien que, pour une anticipation donnée du revenu nominal, toute augmentation de l'activité réelle (baisse du chômage) s'accompagne d'une baisse de l'inflation. Dans ces conditions, la banque centrale devrait s'appliquer à stimuler l'activité économique autant que possible, pour obtenir un taux de chômage très faible, quelle que soit l'époque ou le pays concerné, sans se soucier de l'inflation. Elle devrait aussi contrôler la bourse pour éviter les bulles, afin de limiter les perturbations de l'économie.

Et au centre... Olivier Blanchard explique que si l'inflation n'a pas décollé, c'est parce que le chômage n'a pas encore assez baissé :

I have absolutely no doubt that if you keep interest rates very low for long enough the unemployment rate will go to 3.5, then 3, then 2.5, and I promise you at some point that you will have the rate of inflation that you want.

La courbe de Phillips existe toujours car... il n'en doute absolument pas.

Alors qui a raison ? Au risque de passer pour un simplet, je pense pour ma part que c'est, contre toute attente, Olivier Blanchard qui a raison.

Commençons par dire pourquoi, selon moi, le par ailleurs souvent pertinent Scott Sumner rate sa cible. 2 points. (1) D'abord, reprenons son histoire, et imaginons que le stock de monnaie supplémentaire soit trouvé par une seule personne, qui ne prévient pas les autres habitants de l'île, mais qui se met à acheter des tas de choses. Dirait-on que, au prétexte que l'inflation n'est pas anticipée, elle ne se produira pas ? En fait, même si personne ne sait qu'il y a deux fois plus de monnaie, l'inflation aura bien lieu. Dans un premier temps, certains des autoentrepreneurs de Sumner auront énormément de travail (ceux qui vendent des choses au chanceux qui a trouvé la monnaie supplémentaire). Assez rapidement, ils se rendront compte que de plus en plus de leurs concurrents sont également débordés de travail. La pression concurrentielle sera moins grande, et chacun pourra commencer à augmenter ses prix. A court terme, on travaille plus, ce qui fait augmenter le 'salaire' (horaire) des travailleurs, et donc le prix des biens qu'ils vendent. A long terme, les prix cesseront d'augmenter lorsqu'ils auront atteint leur niveau d'équilibre, et la demande et l'emploi seront revenus à leur niveau initial. Mais c'est bel et bien une courbe de Phillips qui fait que l'inflation se produit alors qu'elle n'est pas anticipée. La différence entre "tout le monde sait que le doublement de la masse monétaire va entraîner un doublement des prix" et "celui qui a trouvé la monnaie supplémentaire ne le dit à personne" correspond à la différence entre anticipations rationnelles et anticipations adaptatives. Bien que, dans certains domaines, les anticipations rationnelles soient une hypothèse utile, voire puissante, il est douteux qu'elles constituent une hypothèse plus réaliste que les anticipations adaptatives dans le contexte actuel. (2) Seconde faiblesse de la parabole de Sumner : il suppose que tout part de variations exogènes de la masse monétaire. Or, aujourd'hui, dire qu'il n'y a pas d'inflation car la fed ne crée pas assez de monnaie est absurde : la fed crée exactement la quantité de monnaie qui lui est demandée, à un taux qu'elle fixe elle même, et qui est à peu près aussi bas que possible. L'idée que l'absence d'inflation viendrait d'une insuffisance de la monnaie crée vis-à-vis de la demande est simplement un non-sens.

Venons-en à Farmer. Celui-ci refuse d'admettre qu'un marché du travail tendu conduise à une augmentation des salaires. Le marché du travail de nos économies a quelques ressemblances avec le monde des autoentrepreneurs de Sumner. La différence est que les travailleurs sont généralement employés par des entreprises, et que, dans certains cas, ils n'ont pas d'emploi et vivent, le temps d'en trouver un, des allocations chômage. Dans ce monde (le nôtre), les travailleurs et leurs employeurs passent leur temps à négocier des augmentations de salaires. Et les chômeurs jouent le rôle de concurrents des travailleurs. S'ils sont nombreux, les employeurs peuvent faire pression à la baisse sur les salaires ("si vous n’êtes pas satisfaits, j'ai des dizaines de lettres de motivation de chômeurs prêts à vous remplacer pour le salaire que je vous propose"). Si, au contraire, ils sont rares, ce sont les travailleurs qui peuvent faire pression à la hausse ("augmentez-moi ou j'irai travailler pour la concurrence"). Ainsi, il existe de bonnes raisons de penser qu'un faible chômage fasse augmenter les salaires. Mais en règle générale, les entreprises fixent le prix des produits qu'elles vendent en appliquant un taux de marge à leur coût marginal, lequel est, dans une large mesure, constitué des salaires. Par conséquent, l'augmentation des salaires finit par se répercuter sur le niveau des prix, et donc sur l'inflation. Cet enchaînement causal est connu sous le nom de modèle 'WS-PS', et est présenté dans tous les manuels de macroéconomie. Lorsqu'on lui demande pourquoi ce phénomène ne se produit pas dans son modèle, Farmer répond qu'il préfère sa fonction de croyance (et que Larry Summers trouve ça très bien).

Finalement, avec son obsession à croire que le modèle finira bien par marcher, Blanchard n'a peut-être pas l'air très subtil, mais il l'est, au fond, probablement plus que ses contradicteurs. Car à la question "pourquoi les salaires n'augmentent-ils pas alors qu'il n'y a plus de chômeurs ?", je préfère la réponse "bah... ils devraient augmenter pourtant", qui s'appuie sur un modèle logiquement assez robuste, à la réponse "dans ma théorie à moi il n'y a aucune raison qu'ils augmentent", lorsque ladite théorie est peu convaincante.

Cela ne signifie pas, bien sûr, qu'il ne faut pas chercher d'autres explications, mais le modèle WS-PS fixe une sorte de standard pour la recherche de la solution. En d'autres termes, une solution au puzzle de l'inflation devrait permettre de comprendre pourquoi les salaires n'augmentent pas lorsque les travailleurs ne subissent plus la pression concurrentielle des chômeurs. Le chômage est-il mal mesuré ? Après tout, le taux d'activité aux USA n'est pas revenu à sa valeur pré-crise. Peut-être certains inactifs sont en réalité des travailleurs potentiels, qui font pression à leur manière sur les salaires des actifs. Peut être l'inflation est-elle mal mesurée (bien que, d'après Aghion, elle soit plutôt sous-estimée que surestimée en ce moment, cf p 101). Peut-être les salaires des nouvelles embauches sont-ils bel et bien en hausse, mais ne se répercutent pas sur les salaires des anciens employés. Peut-être, tout simplement, les anticipations inflationnistes ont-elles besoin de temps pour s'ancrer dans les esprits.

Voilà en tout cas ce que j'apprécie dans l'attitude de Blanchard sur cette question : sa position bornée en apparence est celle de celui qui a compris qu'il y avait un puzzle à résoudre. En ces temps où il est de bon ton de vouloir reconstruire la macroéconomie, on peut espérer que la reconstruction ne consiste pas simplement à esquiver les questions difficiles. Ne perdons pas de vue que la macroéconomie qui s'est construire à partir des années 80 n'a pas particulièrement brillé pendant la crise, et qu'elle fut elle-même le fruit d'une reconstruction suite à la stagflation des années 70. Et que cette reconstruction s'est largement fondée sur une remise en cause de la courbe de Phillips.

jeudi 21 septembre 2017

Pourquoi (et comment) je n'enseigne plus IS-LM

J'ai la chance d'enseigner la macroéconomie à des étudiants de deuxième année de licence d'économie depuis 2011. Cette année, pour la première fois, je ne m'appuie plus sur le modèle IS-LM. Ce modèle, imaginé il y a 80 ans par John Hicks pour présenter de façon synthétique les idées de Keynes, a été abandonné depuis bien longtemps par les chercheurs en macroéconomie. Il continue pourtant à être la clé de voute de l'enseignement en macroéconomie au niveau licence dans la plupart des universités, accompagné de son extension OG-DG (offre globale - demande globale). Le décalage entre ce qu'on enseigne aux étudiants et ce qu'on fait dans les laboratoires de recherche atteint probablement des records dans la discipline macroéconomique.

S'agit-il de paresse intellectuelle de la part de la profession ? En fait, dans une certaine mesure, on pourrait presque prétendre le contraire. Il est vrai que les modèles macroéconomiques issus de la révolution des anticipations rationnelles sont par nature trop compliqués pour être enseignés à des jeunes de licence. Il est également vrai que les auteurs de manuels ne semblent pas s'être particulièrement préoccupés de trouver une manière simple d'en vulgariser les enseignements.

Mais à mon sens, la principale raison de cette survivance d'IS-LM-OG-DG est à chercher ailleurs que dans la paresse.

IS-LM est un très bon modèle

Il est assez probable que, pendant des années, ce modèle ait été tout simplement plus pertinent que ses successeurs plus complexes.

Par exemple, expliquer la grande dépression avec IS-LM-OG-DG fonctionne très bien : les faillites bancaires entraînent une chute de l'investissement autonome et donc un basculement vers la gauche de la courbe IS. Le taux d'intérêt chute car la demande de monnaie diminue. La courbe de demande globale se déplace donc vers la gauche, le PIB chute de même que le niveau des prix. La banque centrale essaie de corriger le tir en créant de la monnaie, mais dans une trappe à liquidité, c'est inefficace. Seul un stimulus budgétaire permet de se sortir d'une telle situation, sans risque d'effet d'éviction, la courbe LM étant horizontale. Quoi que vous pensiez de ce modèle, ses prédictions ressemblent quand même beaucoup à ce qui s'est passé.

Que nous en disent nos modèles contemporains, plus raffinés, et trop complexes pour être enseignés à nos étudiants de licence ? Au risque de m'acharner sur un homme de paille et de caricaturer un peu leur message (mais pas tant que ça), je répondrai à la question en m'appuyant sur un article célèbre d'Harold Cole et Lee Ohanian : "The Great Depression in the United States From a Neoclassical Perspective". Dans cet article, les auteurs montrent l'incapacité des modèles contemporains à reproduire la persistance de la grande dépression. Ils en concluent que si la réalité est si différente du modèle, c'est probablement qu'il s'est passé quelque chose après le déclenchement de la crise qui a ralenti la reprise. Et cette chose, vous l'avez deviné, c'est... le new deal ! Oui, vous avez bien lu : le modèle prédit que, sans rien faire, la reprise doit arriver rapidement, or elle n'est pas arrivée rapidement, c'est la faute au New Deal.

Il n'y avait certainement pas que de bonnes choses dans le New Deal, et il y a des débats légitimes sur les rôles respectifs du new deal et de l'abandon de l'étalon or (voire de la guerre) dans la sortie de crise. Mais de là à dire que c'est à cause du new deal que le PIB de la grande dépression s'écarte de celui prévu par les modèles macroéconomiques contemporains... non, vraiment, rendez-moi mon bon vieil IS-LM !

Mais alors pourquoi l'abandonner ?

Et pourtant, je l'abandonne. Et je ne suis pas le seul. Olivier Blanchard lui-même, qui se trouve être, entre autres choses, un des auteurs de manuels de macroéconomie fondés sur IS-LM, ne va pas tarder à l'abandonner. Et pour de bonnes raisons. Le modèle IS-LM-OG-DG est basé sur 4 courbes (IS, LM, OG et DG). Sur les 4, 2 sont pertinentes (IS et OG), une pourrait l'être dans un autre monde, mais ne correspond pas à la manière dont les banques centrales font leur travail (LM), et une n'a pas beaucoup de sens (DG).

Commençons par la courbe LM : cette courbe nous explique que, lorsque le PIB d'un pays s'accroît, la demande de monnaie augmente, et donc, si la banque centrale n'ajuste pas l'offre de monnaie, le taux d'intérêt augmente. Cette vision des choses pourrait avoir du sens dans une économie de type étalon-or, mais pas dans nos économies actuelles. De nos jours, les banques centrales fixent directement un taux d'intérêt, et laissent généralement la masse monétaire augmenter pendant les périodes de croissance.

Ce simple fait vide de son sens la courbe DG : celle-ci nous explique que la demande diminue lorsque l'indice des prix augmente. Cette transposition à la macroéconomie d'une évidence microéconomique est absurde. Si les prix augmentent, la valeur de ce qui est vendu augmente, et comme c'est la source de tout revenu, les revenus nominaux augmentent à leur tour. La seule justification de cette courbe DG est ce qu'on appelle un effet d'encaisses réelles : si tous les prix augmentent mais si la masse monétaire reste constante, alors cette masse monétaire devient relativement plus rare, et donc son prix, le taux d'intérêt augmente : ainsi, l'augmentation du niveau des prix aurait le même effet qu'une contraction monétaire. Cet effet d'encaisses réelles n'a jamais convaincu grand monde, et avec une monnaie qui se crée largement au rythme de l'activité nominale, il n'a tout simplement aucun sens.

Ajoutons à cela qu'une grande évolution des pratiques macroéconomiques depuis 30-40 ans concerne la gestion des banques centrales : aujourd'hui, elles sont indépendantes et appliquent des règles, en général le ciblage d'un taux d'inflation autour de 2%. Par conséquent, leurs décisions peuvent être anticipées, et donc directement intégrées à la dynamique du modèle. Ce qui n'est pas le cas dans IS-LM.

Alors que faire ?

Réponse très simple. A partir de cette année, pour moi, la macroéconomie, c'est le modèle IS-PC-MR, tel que présenté dans le manuel 'Macroeconomics: Institutions, Instability, and the Financial System' de Wendy Carlin et David Soskice. Le manuel n'est, hélas, pas traduit en français, mais je suis sûr que ce modèle est destiné à devenir le nouveau standard pour les années qui viennent.

Comment ce modèle fonctionne-t-il ? Il repose sur 3 équations, ou 3 courbes.

La courbe IS est assez classique : le taux d'intérêt, ici directement choisi par la banque centrale, détermine le PIB. Cette courbe IS se déplace vers la droite (gauche) lorsque la dépense autonome augmente (diminue). Le taux dont il est ici question est le taux d'intérêt réel, et non pas nominal. Pour passer de l'un à l'autre, on retranche l'inflation anticipée, égale, par hypothèse, au taux observé à la période précédente. C'est donc une hypothèse peu orthodoxe d'anticipations adaptatives qui est faite ici. Enfin, l'influence du taux d'intérêt sur le PIB se fait avec une période de retard : le taux fixé en 2017 détermine le PIB de 2018.

La courbe PC est tout simplement la courbe de Phillips. Voici comment elle fonctionne. Le côté offre de l'économie est représenté par un  modèle WS/PS assez classique, qui débouche sur une valeur du PIB telle que les prévisions d'inflations sont confirmées si le PIB prend cette valeur. C'est le PIB d'équilibre, qui sera ciblé comme objectif à atteindre par la banque centrale. Si le PIB est supérieur (inférieur) à ce niveau, le pouvoir de négociation des travailleurs est fort (faible), ce qui entraîne une augmentation de leur salaire supérieure (inférieure) à l'inflation anticipée. Cette augmentation (diminution) se répercute sur l'inflation, qui se trouve plus élevée (faible) que prévu. Là encore, les anticipations adaptatives prévalent : le niveau anticipé de l'inflation est celui de la période qui précède. Cela débouche sur sur une courbe de Phillips, qui est une relation croissante entre l'inflation et le PIB. Cette courbe de Phillips se déplace vers le haut lorsque l'inflation anticipée augmente.

A ce stade, il suffit d'ajouter que la banque centrale a une cible d'inflation (disons 2%) pour définir ce qu'est un équilibre du modèle :

les agents économiques anticipent une inflation de 2%, et la banque centrale fixe un taux réel correspondant, d'après la courbe IS, au PIB d'équilibre déterminé par WS/PS.

Résultat des courses, le taux d'inflation correspond bien aux 2% prévus.

Que se passe-t-il si la courbe IS bouge ? Prenons le cas d'une crise : chute de l'investissement autonome. Étant donné le décalage entre la fixation du taux d'intérêt et son impact sur l'économie, cette évolution imprévue (et que nous considèrerons comme temporaire) crée un ralentissement de l'économie. le PIB est plus faible que prévu, l'inflation aussi. Disons qu'elle est tombée à 1%. Par conséquent, pour l'année suivante, la courbe de Phillips est plus basse (anticipations adaptatives encore une fois). Si la banque centrale fixe un taux réel correspondant au PIB d'équilibre, les anticipations d'inflation à 1% se vérifieront, alors que la cible est de 2%. La banque centrale se doit donc de recréer des anticipations d'inflation à la hausse.

Sa politique est représentée par la troisième courbe du modèle : la courbe MR (pour Monetary Rule), qui coupe la courbe PC dans le graphique du bas :

Etant donné que la banque centrale sait qu'elle ne peut pas obtenir dès la période 2 une inflation conforme à sa cible en même temps qu'un PIB d'équilibre, cette courbe MR représente le compromis qu'elle fait entre ses deux objectifs (stabilité de l'inflation, stabilité de l'activité). Le point d'intersection entre la courbe MR et la nouvelle courbe de Phillips (en rouge ci-dessus) donne le couple inflation-PIB qu'elle vise pour la période 2. Pour obtenir ce résultat, elle fixe un taux d'intérêt réel qui correspond à ce PIB. Il est plus bas que le taux d'équilibre. Et le taux nominal d'autant plus, puisqu'il est associé à une inflation plus faible. Notez que, dans l'exemple, la courbe IS est revenue à sa position initiale, puisqu'on considère le choc comme temporaire (s'il était définitif, on aurait simplement travaillé sur la courbe IS' en rouge).

A la période 2, le PIB est maintenant supérieur à son niveau d'équilibre, ce qui fait remonter l'inflation, passant de 1% à, disons, 1,5%.

Pour trouver le nouveau couple inflation-PIB ciblé par la banque centrale, on cherche à nouveau l'intersection entre la courbe MR et la nouvelle courbe de Phillips, celle représentée en vert, et indexée pour une inflation de 1,5%. Le taux d'intérêt correspondant à ce PIB est plus élevé que celui de la période précédente, mais encore inférieur au taux d'équilibre. Graduellement, période après période, le taux d'intérêt va remonter vers son niveau d'équilibre, de même que l'inflation. Le PIB, après avoir chuté fortement en période 1 puis augmenté au-dessus de son niveau d'équilibre en raison du coup de pouce monétaire, redescend lui-même progressivement à son niveau d'équilibre.

Un modèle riche.

Ce modèle, plus réaliste que le modèle IS-LM-OG-DG, permet de traiter de tas de questions macroéconomiquement pertinentes. Par exemple, la question épineuse des trappes à liquidités se pose ici de la façon suivante : si la crise est très grave, causant une anticipation d'inflation négative, alors le taux réel sera supérieur au taux nominal. Or le taux nominal ne peut être négatif. Ainsi, au lieu de rehausser les anticipations d'inflations, le taux réel plonge un peu plus le pays dans la récession, avec une boucle vicieuse déflation -> taux réels trop forts -> récession -> déflation.

Comme dans la version IS-LM, cette situation peut être traitée par un décalage vers la droite de la courbe IS, autrement dit par des politiques budgétaires. Mais l'histoire, ici, est plus réaliste que celle racontée avec une courbe LM horizontale.

On peut également introduire dans le modèle la sphère financière de la façon suivante : le taux d'intérêt qui influence l'économie n'est pas celui de la banque centrale, mais celui auquel les banques prêtent de l'argent à long terme à leurs clients. la différence entre les deux est une marge bancaire (spread), qui dépend du risque assumé par les banques. Un accroissement du risque lié à l'insolvabilité des emprunteurs conduit à une augmentation des spreads, et donc joue le même effet qu'une augmentation du taux réel. Dans cette situation, la baisse des taux directeurs risque d'être insuffisante, car la limite du 0% s'impose, encore une fois, au taux nominal. L'action de la banque centrale consiste alors à acheter des actifs à long terme pour faire baisser non pas la position de la courbe des taux, mais sa pente (faisant ainsi repartir les spreads à la baisse). c'est exactement ce qu'ont fait les banques centrales avec le quantitative easing.

Bien entendu, une autre extension du modèle est sa version d'économie ouverte, ce qui est classique pour ce type de modèles (je ne développe pas)

Un modèle d'avenir.

Le modèle de Carlin et Soskice est peut être trop orthodoxe pour les hétérodoxes (il consacre les règles de politiques monétaires basées sur le ciblage d'inflation, il est 'hydrolique' au sens où il pourrait sembler trop déterministe, il valide le NAIRU...), et trop hétérodoxe pour les orthodoxes (l'hypothèse d'anticipations adaptatives, pourtant présente chez Milton Friedman, est aujourd'hui souvent considérée comme trop keynésienne pour être honnête).

Pourtant, si l'on évaluait un modèle sur ses capacités à prédire le réel, et non sur son adéquation à telle ou telle chapelle souvent artificielle, on devrait probablement en faire le nouveau socle de l'enseignement de la macroéconomie. Comme je suis optimiste sur le fonctionnement de ma profession, j'en fais le pari.

mercredi 19 juillet 2017

Hysteresis

En macroéconomie, la question de l'hystérèse est probablement une des plus intéressantes actuellement. Le principe de l'hystérèse est très simple à comprendre. Un évènement A provoque une conséquence B. Si A, la cause, disparaît, mais que la conséquence B continue à se manifester, on est en présence d'un phénomène d'hystérèse. Les macroéconomistes s'y intéressent pour la raison suivante : dans la théorie macroéconomique la plus standard, les questions d'offre et de demande sont déconnectées. L'offre concerne le fonctionnement du marché du travail, du marché des biens et services, la fiscalité, la productivité du travail etc. La demande concerne la politique monétaire, l'investissement, la consommation etc.

Lorsqu'une crise provient d'un problème de demande insuffisante, on considère généralement qu'une politique de relance de la demande permet de régler le problème. La demande ayant retrouvé son niveau pré-crise, la crise devrait ne pas laisser de traces.

La thèse de l'hystérèse s'oppose à cette vision des choses, en disant que le ralentissement provoqué par un problème de demande peut affecter l'offre, et donc continuer d'affecter l'économie même après résolution du problème initial. Un exemple souvent cité est celui de la productivité du travail : après une crise caractérisée par une forte hausse du chômage, les travailleurs se voyant contraints de passer plusieurs mois au chômage à cause de la crise peuvent perdre leur capacité de travail (perte de confiance en soi, oubli de certains savoirs-faire, découragement...). Un doctorant de l'université de Cambridge, Maarten de Ridder, apporte un argument très fort en faveur de la théorie de l'hystérèse (cf cette présentation sur VOX, trouvée grâce au tweeter de Pierre Aldama, qui serait bien inspiré de tenir un blog soit dit en passant). Le mécanisme mis en avant par De Ridder concerne les investissements en recherche et développement, centraux pour faire croître la productivité du travail, et qui sont affectés par la crise. Ici, l'idée est que les économies avancées ne peuvent pas connaître de croissance sans progrès technique. Les dysfonctionnements bancaires qui sont au cœur de la crise de 2008 auraient eu comme effet secondaire d'empêcher les entreprises de disposer des liquidités nécessaires pour financer leur recherche et développement. Ainsi, malgré le travail des banques centrales pour sortir de la crise, le ralentissement de la productivité provoqué par cette baisse de la recherche empêcherait nos économies de retrouver le trend des années pré-crise. Le graphique suivant, extrait de l'article de Vox, présentant l'évolution du PIB de trois zones économiques avancées, illustre cette persistance du ralentissement :

L'hypothèse formulée par de Ridder n'a rien de bien nouveau. La chute de l'investissement fait partie des mécanismes théoriquement connus d’émergence d'un effet d'hystérèse. Et après tout, on pourrait très bien interpréter les choses autrement : par exemple, c'est la baisse des perspectives de découvrir de nouvelles idées fécondes qui pourrait expliquer la baisse des investissements en recherche et la croissance plus faible qu'avant la crise.

La force de l'argument de Ridder est qu'il repose sur le fait que les différentes banques n'ont pas toutes été touchées avec la même violence par la crise. Or les entreprises ont en général une banque "préférée", qui est tout simplement la banque qui les suit habituellement. La relation banque-entreprise est une relation de confiance, de long terme, basée sur une connaissance fine de la situation et de la stratégie de l'entreprise par la banque qui la finance. Si l'on accepte l'idée que le choix par une entreprise d'une banque a peu de chance de dépendre des facteurs qui expliquent l'exposition des différentes banques à la crise, alors on peut interpréter la crise comme une expérience naturelle. Si les entreprises habituellement financées par une banque ayant été touchée fortement par la crise ont moins investi en recherche que les autres, alors c'est probablement le signe que les contraintes de crédit provoquées par cette crise sont effectivement responsables d'une partie au moins de la chute de l'investissement.

Et c'est le cas. Ridder s'appuie sur des données portant sur des firmes américaines. Pour chaque firme, on connait : sa banque, ses investissements en R&D et sa productivité. Pour chaque banque, on connait la gravité avec laquelle elle a été touchée par la faillite de Lehman Brothers. Le premier résultat frappant est que les entreprises dont les banques ont été les plus touchées par la crise ont effectivement moins investi dans la technologie que les autres. Le graphique suivant représente l'impact d'une chute d'un écart-type de la qualité des actifs d'une banque sur les investissements en technologie des entreprises qu'elle finance habituellement :

Ce graphique ce lit de la façon suivante : avoir une banque qui a plus souffert de la crise que la moyenne d'un écart-type a entraîné une baisse des efforts de recherche de 1 ou 2 points de pourcentage sur la période post-crise. Le chercheur dispose ici de ce qu'on appelle un instrument, c'est-à-dire une manière de transformer une corrélation en causalité. En effet, les investissements en recherche et la productivité, c'est un peu l'histoire de la poule et de l'oeuf. Est-ce que la productivité stagne à cause d'un manque d'investissement, ou est-ce l'investissement en recherche qui freine lorsque les opportunités de croissance se tarissent, comme le pensent les prophètes d'une stagnation séculaires ?

Ici, la question est de savoir si la chute de l'investissement provoquée par les difficultés financières de 2008 ont affecté la productivité. Autrement dit : les entreprises ayant eu de mauvaises banques ont-elles connu un ralentissement de leur productivité plus marqué que les autres ?

La réponse est positive. Le graphique suivant représente l'impact d'une diminution d'un écart-type des investissements en recherche due à la mauvaise situation de la banque sur la croissance de la productivité des firmes :

Ce qui est frappant dans ce graphique, c'est que les entreprises ayant des banques très exposées à la crise n'avaient pas de performances significativement moins bonnes que les autres avant la crise. La dégradation est continue entre 2009 et 0014. Il semble donc qu'il existe bel et bien un lien entre la crise et le recul de la productivité.

D'après les calculs de Ridder, si les investissements en technologie étaient restés au même niveau qu'avant la crise, le PIB aurait été aujourd'hui entre 3% et 4% supérieur à ce qu'il est, ce qui correspond à un tiers de l'écart entre le PIB et le trend d'avant la crise. D'autres facteurs doivent donc être mobilisés pour expliquer les deux tiers restants, mais pour un doctorant, retrouver la trace de 650 milliards de dollars dans le cadre de sa thèse, c'est quand même un bel exploit !

Comme quoi, tout n'est pas à jeter dans la recherche actuelle en macroéconomie. Puisse cette tendance persister !

samedi 27 mai 2017

Scandale des attachés parlementaires : une solution simple

Ainsi donc, après François Fillon et Bruno Leroux, c'est au tour de Richard Ferrand de faire scandale pour avoir embauché des proches en tant qu'assistants parlementaires. Comme il se murmure que le nombre de parlementaires concernés par cette pratique est à trois chiffres, on peut s'attendre à ce que des journalistes malicieux nous distillent les noms au compte goutte à mesure que tel ou tel membre de la liste passera sur le devant de la scène (devenant ou s'apprêtant à devenir ministre, président de région, maire d'une grande ville...). Pour ce qui est des pratiques passées, il n'y a pas grand chose d'autre à faire que d'attendre le grand déballage, en souhaitant qu'il soit le plus rapide possible, et en espérant que la classe politique ne renouera pas avec la détestable pratique de la loi d'amnistie qui avait entaché les années 90 en France.

Que faire pour que ces pratiques disparaissent à l'avenir ? Il existe une solution très simple et dont je n'entends personne parler : diviser par 2 le budget alloué aux parlementaires pour l'embauche de leurs assistants. Car au-delà de ce que révèlent ces affaires sur la probité de nos parlementaires, ce qu'elles nous apprennent de façon plus fondamentale est que les quelques 10'000 euros mensuels de salaires bruts que chaque parlementaire peut consacrer à ses assistants parlementaires sont tout simplement excessifs. Si, pour exercer correctement leur mandat, les députés avaient vraiment besoin de trois ou quatre assistants à temps plein, ils n'embaucheraient leur conjoint qu'à titre exceptionnel, dans les cas où celui-ci aurait des compétences particulières, en phase avec les attentes du métier. Je suis prêt à parier que les ministres utilisent une fraction bien moindre du budget de rémunération de leurs cabinets à embaucher des proches. Et ce pour une raison simple : il est impossible de gérer un ministère sans être entouré de gens compétents et professionnels. Gaspiller de l'argent en embauches de complaisance est un luxe vraisemblablement plus difficile à se permettre pour un ministre que pour un député.

En entendant parler d'assistants parlementaires, les amateurs de séries ont probablement en tête des scènes de House of Cards, ou 24, ou encore Designated Survivor, dans lesquelles un ministre, un sénateur ou tout simplement le président est entouré de 3 ou 4 jeunes diplômés de Harvard surexcités, lui conseillant, pour l'un, d'accepter tel accord proposé par le chef de la majorité républicaine, pour l'autre de le refuser pour éviter de troubler son image, et pour le troisième de temporiser en faisant une contre-proposition qu'il pourra faire passer par un de ses contacts travaillant pour l'autre camp.

Ce genre de conseillers de l'ombre existent certainement, dans l'entourage des ministres, des chefs de partis, voire des présidents de groupe au parlement. Mais il est assez douteux que le quotidien des assistants parlementaires ressemble à cela. L'assemblée a publié en 2013 un rapport sur les assistants parlementaires dont ressortent les points suivants : ce ne sont pas de vieux briscards de la politique. 60% d'entre eux ont moins d'un an d'ancienneté (en 2013, soit un an après les dernières législatives. On peut penser qu'ils ont aujourd'hui 4 ans d'ancienneté en plus). L'essentiel des députés a au moins 3 assistants, plus de la moitié en a au moins 4. La plupart d'entre eux n'ont donc probablement pas un salaire mirobolant. Le salaire de base brut moyen est de 2146 euros, soit bien moins de 2000 pour le net.

Les députés fabriquent des lois. On pourrait imaginer qu'ils se payent les services de sommités de la science juridique. A ce prix-là, il n'en est rien. Les idées, les conseils, la technicité, tout cela est apporté par les ministères qui préparent les projets de loi, ou par des think tanks, ou par les partis politiques directement. La chaîne parlementaire diffuse régulièrement des séances de travail au cours desquelles les députés interrogent des spécialistes des questions sur lesquelles une loi est prévue. C'est à ces occasions également que les députés acquièrent la technicité et la connaissance des problèmes qui leur permettent d'apporter des contributions pertinentes à la création de la loi. Manifestement, les assistants parlementaires ne sont pas au premier plan dans ce processus (je parle de l'extérieur, tout assistant parlementaire lisant ce billet est invité à me contredire en commentaire).

Cela ne signifie pas qu'ils ne sont pas utiles. Il semble évident qu'un député ait besoin d'un assistant pour organiser des réunions, préparer son agenda, filtrer sa correspondance, etc. On peut facilement imaginer que les députés souhaitent avoir un collaborateur accomplissant ces tâches à Paris, et un autre en circonscription. Mais quid du troisième (dans 92% des cas), et a fortiori du quatrième (58%) ? Les lois serraient-elles plus mauvaises en leur absence ?

Je fais la différence, en termes de probité, entre un député qui embauche une personne avec qui il partage un compte bancaire, et un député qui embauche un jeune militant de son parti en année de césure dans le cadre de son cursus science po, éventuellement fils d'un cadre du parti. Mais la différence n'est pas si grande. Dans le second cas, le député consolide un réseau de personnes qui lui sont redevables, et qui font grâce à lui leurs premiers pas dans la cour des grands.

Un des arguments avancés par certains défenseurs maladroits de François Fillon dans les premiers temps de son affaire était : "Si Mme Fillon n'avait pas fait le travail pour lequel elle était payée, qui donc l'aurait fait bénévolement à sa place ?". Le couple Fillon est présumé innocent, mais si la justice devait confirmer la lecture du parquet financier, elle ferait ainsi la démonstration qu'on peut être un député tout à fait valable en renonçant aux services normalement payés par la moitié de la masse salariale dédiée aux assistants.

Si cette dotation est, comme j'incline à le penser, surdimensionnée, alors les solutions mises en avant dans le débat public ratent leur cible. Faut-il interdire aux députés d'embaucher des membres de leur famille ? S'il y a une part de complaisance dans ces embauches, je suis parfaitement indifférent, en tant que contribuable, aux relations familiales qui lient celui qui les alloue à celui qui en bénéficie. C'est la complaisance en tant que telle qui me gêne. Faut-il obliger les parlementaires à recruter des assistants issus de formations agréées ? Il est évident que l'assistant parlementaire est une personne de confiance, et on ne saurait décemment obliger un député à recruter quelqu'un issu de telle ou telle formation, s'il n'a pas de personne de confiance dans le lot. Faut-il contrôler l'effectivité du travail effectué ? Si les ressources étaient correctement calibrées, pas besoin de contrôler une activité par ailleurs assez difficile à contrôler (faut-il qu'une commission ad-hoc se voie remettre la totalité de la correspondance traitée par l'assistant ?), car il est dans l'intérêt du député qu'elle soit bel et bien effectuée.

Diviser par 2 le budget des assistants parlementaires éviterait les abus des députés, leur permettrait de garder un contrôle sur les embauches et une certaine confidentialité sur le contenu des échanges avec leur assistant, et ferait économiser quelques 30 millions d'euros par an aux finances publiques. Mon petit doigt me dit que ça ne suffit pas pour qu'une telle mesure soit adoptée par les parlementaires.

- page 1 de 39