Optimum, le seul blog véritablement optimal

Aller au contenu | Aller au menu | Aller à la recherche

mercredi 12 avril 2017

Déclin des centres-villes et lutte des classes

On parle beaucoup depuis quelques mois du déclin des centres-villes des villes françaises moyennes. L'indicateur qui illustre ces craintes est celui de la vacance commerciale, qui correspond au pourcentage de commerces fermés dans une  ville donnée. Un rapport de l'inspection générale des finances et du conseil général de l'environnement et du développement durable a mis en lumière sa forte augmentation dans de nombreux centres de villes moyennes depuis une dizaine d'années. La ville de Bézier est souvent citée en exemple, en raison de son taux particulièrement élevé (un quart) et du lien qu'on peut faire sans trop se mouiller avec l'élection dans cette ville d'un maire proche du Front National. On peut citer également des villes comme Dreux, Montélimar ou Libourne. En ligne de mire du rapport et des commentateurs, les grands centres commerciaux installés en périphérie qui poussent les petits commerçants du centre à fermer boutique. Les centres historiques auxquels nous tenons tant sont-ils condamnés à la paupérisation ? Notre futur est-il condamné à s'inscrire dans ces périphéries impersonnelles et froides que le vingtième siècle a greffé à nos villes ?

Ces angoisses sont compréhensibles, mais elles ne devraient pas conduire à préconiser des politiques défavorables aux classes les plus populaires. Car la question du déclin des centres-villes est aussi une question d'inégalités économiques. Et la frontière est mince entre l'attachement sentimental à nos villes et le simple mépris de classe. 

La photo qui illustre ce billet est prise à Detroit, ville sinistrée s'il en est. Le centre-ville de Detroit est pauvre et délabré, les classes aisées l'ont abandonné, remplacées par des ghettos. L'évolution connue par Detroit depuis la deuxième moitié du 20ème siècle est à l'opposé exact de ce qui s'est passé à Paris. Le centre-ville de Paris est riche et entretenu comme un musée vivant. Ici, la crainte n'est pas la paupérisation mais au contraire la gentrification, qui menace de chasser du centre les rares pauvres qui peuvent encore y vivre. Trois économistes, Jan Brueckner, Jacques-François Thisse et Yves Zenou, ont consacré un article en 1999 à l'explication de cette différence. Cet article est très théorique, les cas de Detroit et Paris n'étant que des illustrations. On pourra donc en transposer les résultats aux cas des villes moyennes françaises dont il est question ici (Paris n'est pas concerné par le rapport). Voilà ce que nous dit cette théorie : supposez qu'il y ait, dans une ville donnée, des riches et des pauvres. L'essentiel de l'activité économique est situé au centre ville, et habiter loin du centre est coûteux. Le fonctionnement du marché contraint les propriétaires de terrains éloignés du centre à proposer des prix plus faibles qu'au centre, afin de compenser le coût de déplacement des périurbains. Dans ce contexte, qui, des riches et des pauvres, habitera plus prés du centre ? Gardez-vous bien de vous dire que ce sont nécessairement les riches au prétexte que les pauvres vont chercher des prix plus faibles en périphérie. Les propriétaires fonciers utiliseront leurs terres pour créer des logements correspondant aux catégories qui sont disposées à leur payer le prix le plus élevé dans chaque quartier. Les riches ont, par définition, des capacités financières plus élevées que les pauvres, qui pourraient faire penser que ce sont eux qui proposeront toujours le prix le plus élevé pour vivre dans un quartier donné. Mais cette même capacité financière fait qu'ils sont moins pénalisés que les pauvres par l'éloignement au centre. Confronté à un prix au centre très élevé, un riche peut plus facilement qu'un pauvre 'faire jouer la concurrence' avec la périphérie, où il pourra s'acheter une très grande villa de laquelle il fera des allers-retours vers le centre, dans son SUV spacieux et énergivore. Il est donc plausible que le prix qu'un riche est prêt à payer pour se loger parte d'une valeur relativement modeste au centre, pour décliner légèrement en fonction de la distance au centre. Inversement, le prix offert par un pauvre déclinera rapidement avec la distance au centre, en raison même du coût de l'éloignement qu'il pourra supporter plus difficilement. Le prix offert par un pauvre donc doit partir d'une valeur plus élevée au centre pour qu'il puisse se loger. En effet, sauf à imaginer que les pauvres disparaissent complètement de la carte, il doit bien y avoir des quartiers dans lesquels ils sont prêts à payer plus que les riches pour vivre. Pour comprendre le mécanisme, imaginez une vente aux enchères. Partant d'un prix très bas, un propriétaire foncier aura une demande plus élevée que la surface qu'il possède, émanant de riches autant que de pauvres. Il peut donc augmenter son prix. Le seuil à partir duquel les riches abandonneront l'enchère au centre intervient assez rapidement, grâce à la possibilité de s'installer en périphérie. Ce sont donc les pauvres qui remporteront l'enchère. Cela ne veut pas dire que les riches ne peuvent pas s'aligner, bien entendu, mais simplement qu'ils ne souhaitent pas le faire. En d'autres termes, au centre, les pauvres sont plus captifs que les riches. Cette histoire est celle de Detroit, les pauvres au centre, les riches à l'extérieur.

Quid de Paris ? La différence entre les deux agglomérations, pour les auteurs, est question d'aménités. Non que Detroit en soit dépourvue. Mais la question est la manière dont les aménités évoluent à mesure que l'on s'éloigne du centre-ville. C'est là que réside la clé de leur modèle. Selon eux, les aménités déclinent rapidement dans le cas de Paris (très fortes au centre, puis rapidement beaucoup plus faibles), alors qu'elles déclinent moins vite dans le cas de Detroit (un centre moins intéressant, et une périphérie assez bien dotée en aménités). Or la vitesse à laquelle déclinent les aménités lorsqu'on s'éloigne du centre peut inverser la logique du modèle. En effet, les riches sont plus enclins que les pauvres à accepter un sur-coût de leur logement pour bénéficier d'aménités importantes. En tenant compte de ces aménités, il est possible que, finalement, leur consentement à payer diminue plus rapidement que celui des pauvres avec la distance au centre. Dans ce cas, ce sont eux qui sont les plus captifs au centre, et qui sont donc disposés à payer les loyers les plus chers, reléguant les pauvres en périphérie.

Ce qu'il faut comprendre dans ce modèle, c'est qu'un rééquilibrage même modeste des aménités entre centre et périphérie peut conduire à un basculement radical de l'occupation de l'espace entre les catégories sociales.

Revenons à Bézier, Dreux et Montélimar. Si l'on devait interpréter le déclin de leurs centres-villes à l'aune de ce modèle, on le ferait de la manière suivante : l'apparition de centres commerciaux en périphérie revient à atténuer le différentiel d'aménités entre centre et périphérie. Ainsi, l'effet-Paris (qui pousse les riches au centre) perd de l'importance, l'effet-Detroit (qui pousse les pauvres au centre) en gagne. Autrement dit, l'amélioration des aménités en périphérie rend théoriquement envisageable un scenario à la Detroit, avec un centre totalement délabré, rongé par la misère et la criminalité. Les fermetures en série de commerces au centre donne du crédit à cette histoire.


Les commentaires sur le déclin des centres-villes s'accompagnent souvent de critiques acerbes sur les municipalités qui autorisent l'ouverture de grands centre commerciaux en périphérie (y compris dans le rapport cité plus haut). Ces critiques sont parfaitement déplacées. Soyons clairs : je déteste les centres commerciaux. De l'extérieur, ils sont moches. A l'intérieur, ils recréent de petites villes très artificielles, hors-sol, quasiment identiques d'un pays à l'autre. Mais ne nous y trompons pas : tout le monde les déteste. Croyez-vous vraiment que les centaines de gens qui se bousculent au rayon des plats surgelés avant de faire la queue à la caisse n°25 aient le sentiment de passer un moment magique dans un temple de l'architecture et du bon goût ? Ils sont simplement prêts à sacrifier une heure ou deux de leur temps pour optimiser cette tâche extrêmement ingrate qui consiste à se réapprovisionner en vivres. C'est pratique (on peut se garer), c'est plutôt bon marché, et une fois la corvée terminée, ils passent à autre chose : rando en montagne, flânerie dans les rues du centre ancien, musée, ciné... Le fait que les masses s'entassent dans les centres commerciaux est, en soi, la preuve qu'ils constituent une aménité valorisable, quelle que soit l'impression de vulgarité qu'ils inspirent. Et lorsqu'une ville autorise la construction d'un centre commercial en périphérie, elle permet d'accroître le niveau d'aménités disponibles pour les habitants de cette périphérie. Qui, à priori, sont plus modestes que les habitants des centres anciens.

Reprenons le modèle de Thisse Brueckner et Zenou. Quelle conséquence doit-on attendre d'un accroissement des aménités en périphérie ? Deux possibilités : soit cet accroissement est trop modeste pour inverser la répartition spatiale entre riches et pauvres. Dans ce cas, ces aménités supplémentaires accroissent le bien-être des pauvres vivant en périphérie. Vouloir interdire cela au nom de la défense des centres-villes revient tout simplement à mettre la loi au service des rentes des riches propriétaires des centres-villes, au détriment du bien-être des pauvres des périphéries. Soit, seconde possibilité, l'accroissement des aménités en périphérie est telle qu'elle provoque un basculement : les riches vont envahir la périphérie, et laisser la place au centre aux plus pauvres. Qu'y a-t-il de choquant dans cette hypothèse ? Les pauvres sont-ils tellement repoussants qu'ils seraient indignes de vivre au milieu de ces reliques médiévales qui font l'âme de nos vieilles villes ? Craint-on que si ces quartiers deviennent populaires ils soient laissés à l'abandon par les municipalités au détriment du patrimoine historique ? Pourquoi ? Laissent-elles généralement à l'abandon les quartiers populaires ? Est-ce moins grave lorsqu'ils sont situés en périphérie ? Il n'y a pas que l'urbanisme qui différencie l'Europe et les USA, il y a aussi les systèmes sociaux. Ce qui est choquant dans les ghettos de Detroit, ce n'est pas tant qu'ils soient situés au centre, c'est qu'ils existent ! Il y a, en France, des quartiers difficiles, mais le phénomène est sans doute d'ampleur moindre qu'aux USA. Et lorsqu'ils existent, il est scandaleux de laisser s'y installer violence et délabrement : le fait qu'ils soient généralement périphériques rend le scandale moins visible, mais pas moins réel.

Je suis prêt à accepter l'idée que le scenario 'Detroit' soit angoissant, et conduise à demander aux autorités d'interdire la création de centres commerciaux pour l'éviter, mais encore faut-il formuler cette demande de façon complète, pour révéler le mépris de classe qu'elle comporte : "communes, n'autorisez pas la construction de centres commerciaux en périphérie, car ils amélioreraient la qualité de vie dans ces quartiers aujourd'hui pauvres, au risque de donner aux riches l'envie de quitter le centre-ville, et donc de transformer celui-ci en quartier populaire, donc forcément sale et délabré, car vous ne l’entretiendrez alors plus". Libre à chacun de penser ça, mais il est toujours préférable de rentrer dans le détail plutôt que de se contenter d'un très hypocrite : "Communes, n'autorisez pas la construction de centres commerciaux en périphérie qui font disparaître le petit commerce qui fait tout le charme de nos centres historiques".

Au-delà de ce qu'on peut penser de ces tensions entre grandes surfaces et petit commerce, entre peur des pauvres et de la gentrification, faire reposer le diagnostic sur la répartition et la taille des commerces passe probablement à côté de l'essentiel dans cette affaire. Car le déclin des centres des villes moyennes est peut être moins une question d'économie urbaine qu'une question d'économie géographique. Cette distinction est un peu jargonneuse, j'en conviens. De façon schématique, l'économie urbaine s'intéresse à l'occupation de l'espace dans une ville donnée : étalement urbain, rente foncière, congestion des réseaux de transports (etc) sont au cœur de ses préoccupations. L'économie géographique (en fait surtout ladite 'nouvelle' économie géographique, inventée par Paul Krugman en 1991) s'intéresse moins à l'espace. Son sujet est l'interaction entre les régions, avec la notion de concentration comme problématique centrale. Son but est d'identifier les conditions d'émergence d'effets boule-de-neige, qui font que les régions ayant la plus grande concentration en population ou en entreprises industrielles tendent à voir cette concentration se renforcer au détriment des autres. Or il n'est pas exclu que, indépendamment des ouvertures de grandes surfaces, ce soit essentiellement un phénomène de concentration géographique d'une certaine classe aisée au niveau national qui soit à l’œuvre dans le déclin de certains centres-villes.

Regardez la carte suivante, extraite du rapport, qui fait apparaître en rose-rouge les villes concernées par le déclin commercial (taux de vacance commerciale >7.5%) et en bleu celles qui échappent au phénomène (taux <7,5%)



Il est assez flagrant que les villes qui échappent au phénomène de déclin sont des villes dans lesquelles sont présentes des activités offrant des emplois très qualifiés, et potentiellement très concentrées : aéronautique à Toulouse, Chimie à Lyon, institutions européennes à Strasbourg... La liste n'est pas exhaustive, mais, à l'exception notable de Marseille, les villes relativement centrales ne sont pas concernées par le phénomène. En revanche, cherchez les points rouge-vif (vacance >15%), ils correspondent généralement à des villes de taille assez modeste, et situées soit dans d'anciens bassins industriels sinistrés (nord et est) soit au milieu de nulle part (les lecteurs de ce blog originaires d'Aubenas, Marmande ou Châtellerault me pardonneront cette caricature).

Ce constat accrédite l'idée qu'une certaine forme au moins de concentration géographique des richesses est à l’œuvre en France. La deuxième globalisation consiste en une internationalisation des chaînes de valeur. Cette internationalisation requiert de la coordination, donc de la proximité, donc de la concentration urbaine. Les travailleurs les plus qualifiés ont donc intérêt à quitter les petites villes pour travailler dans ces chaînes de valeur globalisées. Lorsque les riches quittent les petites villes, ils laissent la place aux moins riches, que ce soit au centre-ville ou en périphérie. C'est triste. Ça crée de la polarisation. Ça crée du vote extrême. Ça fragmente les peuples. Ça donne tout son poids à la question politique des inégalités et du sort réservé aux plus démunis ou aux catégories déclinantes. Cette question n'est pas simple, mais l'idée d'interdire aux pauvres d'aller faire leurs courses à Lidl fait bien plus partie du problème que de la solution.



mercredi 22 mars 2017

Cédric Villani est-il un nazi ? (des effets de composition et de leur bon usage)

Quatre entreprises différentes payent à leur salariés des salaires annuels moyens de 30'000€, 25'000€, 30'000€ et 29'000€. Avant d'en inférer que les entreprises 1 et 3 sont les plus généreuses, suivies de près par la 4, et que la 2 s'avère la plus pingre, regardez d'abord ce tableau, qui décompose le salaire moyen en salaire des exécutants et salaire des cadres :

Vous le voyez, les choses ne sont pas si simples ! L'entreprise 2 n'est pas moins généreuse que la 1, puisque ses exécutants d'un côté, et ses cadres de l'autre, sont payés exactement comme ceux de l'entreprise 1. Simplement, elle compte moins de cadres, et plus d'exécutants. La différence dans le salaire moyen est ce qu'on appelle un effet de composition. Si l'on compare l'entreprise 1 à la 4, l'effet composition est encore plus marqué, car l'entreprise 4 donne des salaires plus élevés que la 1 tant à ses exécutants qu'à ses cadres. Simplement, elle a beaucoup moins de cadres, si bien que son salaire moyen apparait plus faible. Enfin, comparer les entreprises 1 et 3 pourrait laisser penser que leur politique salariale est identique, puisque leurs salaires moyens sont identiques. Il n'en est rien : l'entreprise 3 est la plus généreuse à type d'emploi donné, mais l'effet de composition fait qu'elle semble payer les mêmes salaires que la 1.

On le voit à travers cet exemple, négliger les effets de composition peut conduire à de mauvaises interprétations des données. Néanmoins, la mise en avant d'effets de composition comme argument dans un débat devrait toujours s'accompagner de précisions sur la théorie qu'elle entend soit confirmer, soit réfuter, afin que l'interprétation de ces effets soit claire. Ce n'est pas toujours le cas. Pour poursuivre l'exemple, il est certain que si le propos est de déterminer quelle entreprise payera le plus de cotisations sociales par travailleur, alors l'effet de composition perd toute pertinence, et ce sont bel et bien les entreprises 1 et 3 qui seront les meilleures sur ce plan. Ou encore, si une politique éducative ambitieuse au niveau d'un pays permettait d'accroitre la part des cadres dans le travail salarié, alors avoir une structure de l'emploi ressemblant à celle de l'entreprise 1 serait plus satisfaisant qu'une structure calquée sur celle de l'entreprise 2, effet de composition ou pas.

Venons-en à la question, volontairement grossière et provocatrice je l'admets, qui donne son titre à ce post. Cédric Villani, soutien d’Emmanuel Macron, candidat plutôt cosmopolite à cette élection présidentielle, a suscité une polémique en liant les difficultés du système scolaire français à l'immigration.

https://www.youtube.com/watch?v=xdyaQqDpiwQ

J'ai eu un bref échange sur twitter avec le sociologue Denis Colombi, qui a réagit du tac-au-tac en dénonçant l'ignorance de Villani. Il a par la suite développé son argument dans un long article, dont je recommande la lecture sans réserve. Je la recommande parce qu'elle vous apprendra, comme elle me l'a apprise à moi-même, une chose qui mérite d'être connue : à origine sociale égale, les enfants d'immigrés n'obtiennent pas des résultats scolaires moins bons que les autres élèves. Leur résultats moins bons dans l'ensemble ne sont donc qu'un effet de composition, lié au fait qu'ils sont plus susceptibles d'être socialement défavorisés à l'entrée du système scolaire. La conclusion qu'en tire Denis Colombi est que l'analyse de Villani est erronée. Je ne sais pas si l'analyse de Villani est erronée, mais je sais que l'effet de composition dont il est question ici est tout à fait insuffisant pour aboutir à cette conclusion. Le propos de Villani ne dit ni ne sous-entend nullement que les difficultés scolaires des enfants d'immigrés correspondent à un facteur spécifiquement lié à l'immigration, une sorte de tare qui ne pourrait s'expliquer par des variables socio-économiques objectives. Son propos, tel que je l'entends en tout cas, transpose au niveau de la comparaison entre pays le débat 'proficiency vs growth' qui est central dans le monde de l'éducation, et qui consiste à savoir s'il faut évaluer les performances des élèves par le niveau qu'ils atteignent ou par les progrès qu'ils accomplissent. Les enquêtes PISA soulignent les mauvaises performances de la France en matière d'égalité au plan éducatif. C'est d'ailleurs précisément sur cette question là que Villani est interrogé (« L’école française […] est une des plus inégalitaires qui soit malgré les moyens qui sont alloués […] qu’est-ce qui ne fonctionne pas ? […] Par rapport aux systèmes étrangers qu’est-ce qui vous frappe ? »). Or, comparer les inégalités à la sortie du système scolaire peut être trompeur si l'on ne tient pas compte des inégalités à l'entrée du système scolaire. Villani apparaît ici comme un défenseur du système français, expliquant qu'étant données les inégalités sociales ou culturelles auxquelles le système est confronté, il ne s'en sort pas si mal. Mais, pourrait-on lui objecter, le système n'est-il pas lui-même responsable des inégalités en amont, autrement dit de l'inégalité qui existe entre les parents des élèves aujourd'hui scolarisés ? Pas si l'on tient compte du fait qu'au moins une partie d'entre eux n'étaient pas scolarisés en France lorsqu'ils étaient enfants. Le modèle est donc le suivant : l'immigration contribue aux inégalités éducatives en amont, car les enfants d'immigrés ont des situations familiales en moyennes moins favorables que les autres enfants. Les résultats du système français sont assez bons étant donnée cette inégalité en amont.

Ce modèle est-il pertinent ? Je ne sais pas. Mais je sais de quelles données nous aurions besoin pour le déterminer : part des enfants d'immigrés dans les populations ayant les situations sociales les moins favorables à la réussite scolaire, mesure pays par pays de ces inégalités en amont, mesure pays par pays de la réduction ou de l'accroissement de ces inégalités à la sortie du système éducatif, et enfin vérification du positionnement de la France du point de vue de cet accroissement. En revanche, l'effet de composition mis en lumière par Denis Colombi ne permet pas de se prononcer sur la validité de ce modèle.

Je suis bien conscient de ce qu'il y a de délicat à parler d'immigration. Il est bien possible que des enfants d'immigrés ayant entendu l'interview de Villani se soient sentis stigmatisés par ses propos. Je mesure par ailleurs l'écart qu'il y a entre le sentiment diffus qui existe dans une grande partie de la population que l'immigration constitue une difficulté économique, et ce que disent les études sur le sujet, qui mettent en avant l'importance des effets positifs et le caractère marginal des effets négatifs.

La seule attitude saine, à cet égard, est d'accepter que toutes les questions soient posées, et que les réponses soient cherchées avec minutie en confrontant des modèles exprimés clairement aux données pertinentes. Pas d'évacuer ces questions. n'oublions pas que si l'on peut affirmer que les enfants d'immigrés s'en sortent aussi bien que les autres, en France, à origine sociale donnée, c'est bien parce que des chercheurs ont pris l'initiative de se poser la question et de mener l'enquête qu'il fallait pour y répondre.

mardi 24 janvier 2017

Quelques idées rapides sur le revenu universel

L'idée d'un revenu universel, versé à chaque citoyen sans aucune condition, fait beaucoup parler depuis quelques semaines. J'aimerais y consacrer un article long, mais faute de temps, voici quelques random thoughts sur le sujet.

Sur les motivations :

Pourquoi donner un revenu de base à tout le monde alors que seuls ceux qui sont dans le besoin en ont... besoin ?

2 éléments de réponse à cette question : (la liste n'est pas exhaustive)

- Les aides sociales conditionnées imposent des contrôles sur les vies des bénéficiaires, ce qui est à la fois intrusif et couteux. Dans le cas d'un revenu universel, on n'a pas à embaucher des fonctionnaires pour étudier et contrôler tous les cas individuels, puisque tout le monde a droit au revenu.

- Les aides sociales conditionnées ont des effets-seuil qui peuvent générer des trappes à pauvreté : une mère de famille isolée et sans emploi ne gagne pas grand chose à travailler si l'on soustrait de son salaire la perte de certaines aides. Dans le cas d'un revenu universel, pas de problème de ce type.

Sur l'impact sur l'incitation à travailler :


C'est une question extrêmement difficile. Deux facteurs sont souvent mis en avant pour expliquer les comportement en matière d'offre de travail (comprenez, en matière de temps de travail souhaité par les travailleurs) :

Le premier est le niveau de richesse ou de revenu, considéré comme défavorable à l'offre de travail : une personne très pauvre souhaite travailler beaucoup pour améliorer ses conditions de vie, tandis qu'une personne aisée est plus sensible à ses loisirs et au temps qu'elle consacre à sa vie de famille.

Le second est le coût d'opportunité du loisir, c'est-à-dire le manque à gagner associé à nos heures de loisir, pendant lesquelles nous ne sommes pas rémunérés. Ce coût d'opportunité est, lui, considéré comme favorable à l'offre de travail : plus mon salaire horaire est élevé, plus je suis réticent à renoncer à une heure de salaire pour me détendre.

Comment ces deux facteurs interviennent-ils dans le cas du revenu universel ?

Garantir à chacun un revenu permanent accroît la richesse des bénéficiaires, dès lors qu'ils sont gagnants nets au dispositif (c'est à dire dès lors que l'augmentation de leurs impôts pour financer le dispositif n'excède pas le revenu universel). Ici, l'effet richesse joue donc en défaveur de l'offre de travail. C'est l'idée de l'oisiveté que pourrait susciter un revenu universel : pourquoi travailler à temps plein, si un salaire à mi-temps cumulé au revenu universel me permet de subvenir à mes besoins ?

Pour ce qui concerne l'effet 'coût d'opportunité', la situation est ambigüe. Pour les personnes qui se situent à proximité des trappes à pauvreté, le revenu permanent accroît le coût d'opportunité du temps libre, car il fait disparaître les effets-seuil. Dès lors que je ne perds plus le bénéfice de mes aides en acceptant un travail, alors ce travail va me rapporter réellement de l'argent, et c'est donc un vrai manque à gagner de ne pas l'accepter. Donc je l’accepte. En revanche, le dispositif devant être financé par des hausses d'impôts, le salaire horaire net d'impôts des travailleurs qui se situent au-delà des trappes à pauvreté serait diminué par un tel dispositif, les incitant à travailler moins.

L'un dans l'autre, l'impact sur l'offre de travail dépend probablement des catégories concernées. Plus précisément, les personnes les plus précaires travailleraient vraisemblablement plus (pas assez riches pour renoncer à un revenu du travail + disparition des effets-seuil). Les personnes gagnant un revenu plus élevé travailleraient probablement moins (le revenu permanent leur paiera les vacances à la place des heures sup, lesquelles seront rendues moins intéressantes par une fiscalité plus élevée).

Remarque : le fait que cela augmente ou diminue l'offre de travail n'est pas en soi un critère décisif. Après tout, les gens sont libres d'utiliser leur temps comme ils le souhaitent. Mais cela a des répercussions évidentes sur le coût du dispositif.

Sur le positionnement idéologique :

Le revenu universel est une idée qui plait à une partie de la gauche, mais également à une partie des libéraux (y compris au sens étroitement économique du terme). La vision de gauche y voit une possibilité d'exister en dehors du marché. Les libéraux y voient la façon la moins interventionniste d'éviter que le jeu du marché ne crée des situations de grande pauvreté. Ces deux visions ne sont pas totalement incompatibles, mais elles peuvent se traduire par des projets assez différents. Typiquement, la vision libérale du revenu universel en fait un substitut de tous les autres dispositifs de lutte contre la pauvreté, et s'accompagnera donc volontiers d'une suppression de la sécurité sociale (votre revenu universel vous permet de souscrire une mutuelle), du salaire minimum (le revenu universel vous garantit que vous ne serez pas pauvre, la suppression du SMIC aidera les travailleurs les moins qualifiés à trouver du travail), des allocations chômages... Évidemment, ça change un peu le coût du dispositif.

Sur le lien avec un 'impôt négatif' :

C'est la même chose ! Voici comment pourrait marcher un revenu universel. Imaginez un monde dans lequel l'administration fiscale vous prélèverait, tout les mois, votre impôt sur les revenus du mois courant. Vous avez un compte auprès de cette administration fiscale, qui vous prélève, tous les mois, une somme égale à votre impôt moins la valeur du revenu universel. Si le résultat de la soustraction est négatif, c'est le fisc qui vous donne de l'argent. Si vous n'avez rien gagné du tout, il vous donne tout simplement le revenu universel. Imaginons un exemple chiffré :

revenu universel : 700€/mois
Niveau de revenu à partir duquel les impôts sont supérieurs au revenu universel : 2100€ (le triple)
Taux marginal d'imposition entre 0 et 2100€ : 1/3 (33,33%)

Vous voyez dans cet exemple une conséquence à mon avis inévitable du dispositif : l'accroissement du taux marginal d'imposition pour les bas salaires. Comme dit plus haut, ça s'accompagne néanmoins d'une disparition des effets-seuil, qu'on peut assimiler logiquement à un taux marginal de près de 100%.

Cas 1 : Pierre n'a rien gagné en janvier 2017. Le fisc lui prend donc (1/3)*0-700=-700€. Autrement dit, Pierre reçoit 700€.

Cas 2 : En février, il accepte un travail au SMIC à mi-temps payé (j'arrondis) 540€. Le fisc lui prend (1/3)*540-700=-520€. Il reçoit donc 520€ qui s'ajoutent à son salaire, soit 1060€ en tout.

Cas 3 : En mars, il accepte de passer à temps plein pour 1080€. Le fisc lui prend (1/3)*1080-700=-340€. Il reçoit donc 340€ qui s'ajoutent à son salaire, soit 1420€ en tout. On voit bien dans cet exemple qu'un SMICARD est à la fois gagnant au dispositif (effet-richesse), mais que son revenu ne s’accroît que modestement quand il passe de mi-temps à temps-plein.

Cas 4 : En avril, on lui propose une promotion, il va gagner 2100€. Le fisc lui prend donc (1/3)*2100-700=0€. Son revenu universel est compensé par son impôt.

Cas 5 : Encore une augmentation en Mai ! Il gagne maintenant 3000€. Le fisc lui prend (1/3)*3000-700=300€. Ça y est, il paie des impôts ! Son revenu net d'impôts est de 2700€

Sur la faisabilité :

Voilà la vraie question ! Pour être sincère, bien qu'attiré par le principe du revenu universel, je crains que sa mise en œuvre dans un pays comme la France, avec un système social extrêmement développé, des attentes assez fortes d'une attitude paternaliste de l'Etat, et une fiscalité assez élevée, concevoir un projet acceptable ne relève de la quadrature du cercle. J'espère pouvoir, dans un futur proche, écrire sur ce blog des choses un peu plus précises, mais commençons par les ordres de grandeurs. Pour que le public accepte le remplacement de diverses allocations par ce revenu universel, celui-ci ne doit pas être trop faible. Le chiffre de 700€/mois de l'exemple ci-dessus semble être un minimum. Or, verser 700€ par mois à 50 millions d'adultes (j'arrondis) représente 420 milliards d'euros. Environ un cinquième du PIB. Dans l'exemple, je propose un accroissement à 1/3 du taux marginal d'imposition sur les revenus les plus bas. Ce taux remplacerait des taux actuellement fixés à 0% pour les premières tranches et 14% pour les deuxièmes. En raisonnant à distribution constante des revenus, on peut s'attendre à ce que cette hausse du taux marginal rapporte environ une centaine de milliards d'euros. On peut attendre également un gain en accroissant les taux des tranches d'imposition plus élevées. Mais ces taux sont déjà assez importants, je doute qu'on puisse tabler sur plus de 20 milliards d'euros.

Il resterait donc 300 milliards à financer. Ces 300 milliards correspondraient à des baisses de prestations sociales ayant vocation à être remplacées par le revenu universel. Bien entendu, on s'empressera de supprimer le RSA et les APL. Mais on n'économisera là guère plus de 30 mds. Restent 270 mds. Cette somme peut être réduite, mais il va falloir commencer à s'orienter vers l'interprétation libérale du dispositif. Par exemple, en touchant aux retraites. Le propos n'est pas ici de remplacer les retraites par le revenu universel, mais de le déduire des montants des retraites. Par exemple, Jacques, retraité de 70 ans, perçoit une pension de 1800€. Il bénéficie d'un revenu universel de 700€, mais sa pension tombe à 1100€. Une autre façon de dire la même chose est de dire que les retraités ne sont pas bénéficiaires du dispositif. Une économie d'environ 100 mds. On peut imaginer un système similaire en matière d'allocations chômages. Celles-ci seraient calculées selon le mode de calcul actuel, moins la valeur du revenu universel, ou égales au revenu universel si le mode de calcul actuel conduit à une allocation qui lui est inférieure (peut-être 20mds d'économies). On peut également imaginer une suppression des allègements de charges sociales pour les bas salaires (environ 35mds), à condition de compenser cela par une diminution du SMIC, pour éviter des effets pervers sur l'emploi (le revenu universel ferait plus que compenser cette baisse, en termes de revenu mensuel). Il reste encore une grosse centaine de milliards à trouver ! Il va falloir commencer à taper sur des choses de plus en plus sensibles. Par exemple, on peut envisager de diminuer considérablement le remboursement des dépenses de santé, en créant une sorte de mutuelle publique qui permettrait à toute personne le désirant de conserver le niveau de remboursement actuel... moyennant une cotisation plus importante. Mais difficile d'imaginer que ça permette de récupérer 100mds.

Je ne suis, hélas, pas en mesure, à ce jour, de chiffrer précisément toutes ces options. On reste sur une estimation au doigt mouillé, j'encourage les lecteurs de ce blog à m'aider à être plus précis. Mais j'ai le sentiment que pour parvenir à couvrir ces 420mds, il faut en passer par des mesures assez drastiques, qui seraient vraisemblablement vécues comme des purges par une grande partie de l'opinion, et ne seraient donc pas une option crédible politiquement. There Ain't No Such Thing As A Free Lunch! J'ai mentionné plus haut la difficulté de savoir si un revenu universel conduirait à plus ou moins de travail. Dans la première hypothèse, le coût de la mesure serait amoindri, mais il serait évidemment alourdi dans la seconde.

Alors... pour ou contre ?

Philosophiquement, je suis très séduit par le principe du revenu universel. C'est une façon efficace de lutter contre la pauvreté, sans s’immiscer dans la vie des pauvres, sans créer de trappes à pauvreté. C'est une mesure particulièrement attirante dans une époque qui, dans les pays développés, est particulièrement anxiogène pour les travailleurs faiblement qualifiés. Peut-être un dirigeant politique habile parviendra-t-il, à terme, à faire accepter par l'opinion publique une mesure de ce genre, ainsi que les coûts qui vont avec. Ce qui m'empêche de croire que le revenu universel verra le jour dans un futur proche, c'est l'Histoire. Si le conseil national de la résistance avait cru dans les vertus d'un revenu universel, il aurait peut-être pu le mettre en place dans un pays qui, jusque-là, avait assez peu de dispositifs sociaux. Partant d'une situation dans lequel le poids de l'Etat dans l'économie est assez faible, on peut imaginer créer un revenu universel initialement assez faible, puis le faire croître progressivement, en même temps que la fiscalité qui l'accompagne. Mais dans un pays qui dispose déjà d'une batterie de dispositifs ciblés, représentant environ un quart du PIB, instaurer un revenu universel vous condamne soit à porter la fiscalité à des niveaux intolérables, soit à détruire des dispositifs auxquels les gens sont attachés. 

A défaut d'une DeLorean, seuls 10 ans de thatchérisme radical ramèneraient le pays dans une forme de virginité sociale qui rendrait politiquement envisageable un revenu universel. Je ne suis pas sûr que le jeu en vaille la chandelle.

dimanche 1 janvier 2017

The Great Convergence

Si le dernier billet de ce blog vous a donné envie de lire la compétitivité des pays de Flora Bellone et Raphaël Chiappini, et si vous avez envie d'en savoir encore davantage sur les spécificités de la mondialisation actuelle, alors vous devriez commencer l'année en lisant The Great Convergence: Information Technology and the New Globalization de Richard Baldwin.

Pour ceux qui connaissent les travaux académiques de Baldwin, le contenu de ce livre ne constituera pas une surprise, mais cette synthèse vient combler un vide dans la littérature sur la mondialisation à destination du grand public. La thèse de Baldwin peut se résumer de la façon suivante : l'organisation spatiale de l'activité économique dépend du coût avec lequel on peut déplacer 1- les produits, 2- les idées et 3- les hommes. Avant la première mondialisation du 19ème siècle, les trois types de déplacements étaient coûteux. Les activités industrielles (par ailleurs balbutiantes à l'époque) devaient avoir lieu à proximité des consommateurs. Or, la plupart des consommateurs étant des paysans relativement dispersés géographiquement (loi des rendements décroissants de la terre oblige), l'industrie était elle-même faiblement concentrée. Les pays n'étaient pas très spécialisés, car la production devait fournir toute la diversité des biens demandés par les consommateurs locaux.

La première mondialisation consiste essentiellement en une baisse des coûts de transport des biens (chemins de fer, bateaux à vapeur...). Être éloigné du consommateur n'est plus réellement une contrainte. Les pays commencent alors à se spécialiser, selon la logique des avantages comparatifs. De plus, au plan géographique, des centres industriels apparaissent, permettant aux fabricants de produits finis de se rapprocher de leurs fournisseurs. Les produits finis s'échangent d'un pays à l'autre, mais la chaîne de la valeur demeure nationale. Si un pays produit des voitures, tous les agents économiques du pays ont un intérêt commun dans la voiture : l'ouvrier qui la fabrique, l'ingénieur qui la conçoit, le responsable marketing qui fixe son prix, le mineur qui extrait sa matière première...

La seconde mondialisation, commencée dans les années 1990, se caractérise par une baisse du coût de déplacement des idées, c'est à dire du coût de communication. Cette évolution tend à dé-nationaliser les avantages comparatifs. Dorénavant, la spécialisation des pays ne se fonde pas sur des produits finis, mais sur des étapes de production de ces produits. L'ouvrier et l'ingénieur de l'industrie automobile ne sont plus dans le même bateau. L'ingénieur continue à concevoir des modèles qui seront fabriqués par des ouvriers à bas salaires des pays du sud. Les moyens de communication actuels permettent des transferts de technologie impossibles il y a encore 50 ans. La mondialisation actuelle est le fruit de l'alliance entre la haute technologie du nord et les bas salaires du sud.

Mais une partie importante de la technologie est constituée de connaissances tacites, difficilement codifiables, qui requièrent une proximité physique, des face-à-faces, entre différents intervenants d'une même chaîne de valeur. Ainsi, bien que cette nouvelle mondialisation prenne la forme d'un rééquilibrage de l'activité économique entre le nord et le sud, elle demeure un phénomène extrêmement concentré : au nord, parce que les activités de R&D nécessitent des contacts entre un grand nombre de personnes qualifiées (silicon valley, Villes Allemandes...), au sud parce qu'il serait trop coûteux de coordonner des unités de production trop dispersées. Les managers du nord devant faire des aller-retours fréquents dans leurs usines du sud, il est préférable que celles-ci soient concentrées dans un faible nombre de pays à bas salaires. Ce ne sont donc pas tous les pays du sud qui s'industrialisent. Baldwin appelle les 'I6' (qu'il oppose aux pays du 'G7') 6 principaux bénéficiaires de ce phénomène : Chine, Inde, Thaïlande, Corée du Sud, Pologne et Indonésie. Cela ne signifie pas que d'autres pays du sud n'en bénéficient pas également, mais de façon indirecte, via la hausse du prix des matières premières provoquée par la croissance mondiale.

Cette façon de concevoir la mondialisation actuelle a des implications politiques. Par exemple, la question "Que devraient faire les États du nord pour soutenir leur économie ?" trouve des réponses spécifiques à ce contexte. Prenons l'exemple des aides à la R&D. Le souvenir des 30 glorieuses nous conditionne à penser que des entreprises innovantes auront tendance à embaucher davantage d'ouvriers, et à offrir de meilleurs salaires. Dans la logique de la deuxième mondialisation, les résultats de la R&D ne sont pas localisés dans le pays qui les a vus naître, mais dans la multinationale qui les a produits. Le pays dans son ensemble a beaucoup à gagner à avoir des entreprises à la pointe de la technologie, mais les ouvriers qui en tireront profit sont plus vraisemblablement localisés dans un pays à bas salaire.

Les politiques industrielles ont vocation à encourager les activités génératrices d'externalités pour l'ensemble de l'économie, et la R&D est souvent présentée comme une activité ayant cette caractéristique. Baldwin propose d'ajouter une deuxième variable pour guider les politiques à l'ère de la seconde globalisation : le caractère 'collant' (stickiness) des activités encouragées. Certaines activités ont plus ou moins de facilité à fuir le pays. Baldwin compare 3 activités génératrices d'externalités : la R&D, le travail hautement qualifié, et ce qu'il appelle le 'capital social', c'est-à-dire cette chose difficilement mesurable, qui fait que les individus se rencontrent volontiers, échangent, se font confiance. Les politiques visant à encourager ces activités doivent être conscientes qu'elles sont plus ou moins mobiles internationalement. La R&D est celle qui l'est le plus, le capital social celle qui l'est le moins, le travail qualifié est entre les deux.

Les politiques de la ville constituent un autre aspect à ne pas négliger pour Baldwin. C'est un point de vue qui ne convaincra probablement pas Olivier Bouba-Olga, mais qui mérite d'être entendu. La globalisation étant ce qu'elle est, les pays du nord doivent faire en sorte de draguer les managers, programmeurs, ingénieurs qui capitalisent les gains associés. Et la ville est un instrument 'collant' par nature (on ne peut pas bénéficier de la qualité de vie proposée par une ville si l'on n'y vit pas), et qui peut être déterminant pour accueillir ces têtes pensantes de la mondialisation. Ne nous trompons pas, il ne s'agit pas simplement d'encourager toutes les villes à être accueillantes, mais bien d'encourager les États à favoriser leurs villes qui sont déjà les plus grosse et les plus attractives. 

La lecture de The Great Convergence constitue un complément fort utile aux travaux de Piketty sur les inégalités. En effet, alors que Piketty met l'accent sur la fiscalité, jugée insuffisamment forte pour les hauts revenus, comme facteur de croissance de la part du top 1%, Baldwin insiste sur des causes probablement plus profondes. Soyons clairs, les deux explications ne sont pas incompatibles. Mais les données mises en avant par Piketty montrent que les inégalités (par le haut) s'accroissent pour les revenus avant impôt. A cet égard, le rôle de la fiscalité ne peut être qu'indirect (en empêchant l'accumulation des patrimoines à long terme essentiellement). L'alliance entre la technologie du nord et les travailleurs du sud qui est au cœur de la seconde globalisation constitue une explication plus fondamentale.

Concernant les pays du sud, cette fois, le modèle proposé par Baldwin rend caduques, dans le cadre de la deuxième globalisation, les politiques dites de 'big push'. Ces politiques, inspirées par le cas coréen, considéraient que l'industrialisation d'un pays se heurtait à un obstacle à ses débuts : en l'absence d'un savoir-faire industriel et d'un réseau de clients et fournisseurs bien établis, une industrie naissante ne pouvait souffrir la concurrence internationale des industries déjà développées, condamnant un pays pauvre à le rester. L'industrialisation devait donc être vue en grand, avec un État stratège à la direction d'orchestre. Dans le cas très emblématique de l'automobile, une industrie naissante devait commencer par acheter des pièces détachées à l'étranger pour les assembler localement, puis apprendre, progressivement, à fabriquer ces pièces détachées elle-même pour devenir une industrie mure. Dans la globalisation actuelle, ce schéma est obsolète. Les chaînes de valeur sont de toutes façon globales, et un pays pauvre peut tenter de s'insérer directement dans ces chaînes de valeurs, en convainquant les sièges sociaux des grandes firmes qu'elles peuvent venir fabriquer leurs pots d'échappement dans ses usines. La technologie sera apportée par les ingénieurs des multinationales, la main d’œuvre bon marché, la stabilité politique et le bon état des routes seront garantis par l'Etat en question.

De la même manière qu'il complète les travaux de Piketty pour comprendre la situation dans les pays riches, le livre me semble également un complément utile aux thèses d'Acemoglu et Robinson sur la question du développement. Rappelons que, pour Acemoglu et Robinson, le développement se produit dans les pays qui, généralement par hasard, ont vu émerger des institutions dites inclusives (Etat de droit, démocratie, liberté d'entreprendre, marchés ouverts...), qui les ont poussés dans un cercle vertueux rendant possible l'innovation et la destruction créatrice. Bien que très stimulante, cette thèse fait l'impasse sur la dimension internationale du développement. Comme nous l'avons dit plus haut, la tendance à la convergence qui caractérise la mondialisation actuelle demeure un phénomène extrêmement concentré. Il est certain que tous les pays d’Amérique latine gagneraient à avoir des institutions inclusives. Mais, à qualité institutionnelle donnée, il est aussi certain que les multinationales américaines préfèreront toujours créer des usines au Mexique qu'en Argentine, car les aller-retours fréquents du laboratoire de R&D jusqu'à l'usine sont moins coûteux (en temps d'ingénieur) si l'usine est installée au Mexique qu'en Argentine.

Notons que, pour les politiques industrielles ou de compétitivité comme pour les politiques de développement, The Great Convergence met le doigt sur ce qui change, dans la mondialisation actuelle, tout en restant très général sur le type de politiques à conduire. Une bonne politique de la ville, créer du capital social, s'insérer dans les chaînes de valeurs globales etc. sont de bons principes, mais comment les mettre en œuvre concrètement et efficacement est une question largement ouverte, et Baldwin ne rentre guère dans les détails. Cela tient certainement à deux choses : la première est que le livre est relativement court (329 pages) et se focalise davantage sur la démonstration de la pertinence du modèle proposé par Baldwin pour décrire la mondialisation actuelle que sur ces questions politiques. La seconde, plus fondamentale, est que ces questions sont, à l'heure actuelle, insuffisamment traitées par la recherche pour avoir des réponses très concrètes et très sûres.

Néanmoins, avoir un bon diagnostic est déjà énorme, et à ce titre, The Great Convergence propose un modèle argumenté et convaincant de la deuxième mondialisation, dont on peut espérer qu'il aura une influence sur le débat public.

Bonne année 2017 à tous !

mercredi 23 novembre 2016

Compétitivité des pays

J'ai longtemps pensé que les différentes attitudes possibles vis-à-vis de la notion de "compétitivité" appliquée à des pays pris dans leur ensemble pouvaient être partitionnées en trois catégories :

- La première regroupe ceux qui pensent que l'on doit, dans un contexte mondialisé, tout mettre en œuvre pour remporter la grande bataille économique : baisser les salaires pour gagner des parts de marché à l'exportation, baisser les impôts pour attirer les investisseurs...

- La deuxième est celle de ceux qui déplorent cette compétition effrénée et qui pensent que l'on serait mieux inspiré de renoncer à la mondialisation, afin de pouvoir à nouveau décider souverainement de son système social.

Bien que diamétralement opposées au plan normatif, ces deux premières attitudes partagent une même vision de la mondialisation : celle d'une lutte sans merci, dont les vainqueurs seront bénis des dieux, et les perdants condamnés au déclin. Ce qui les distingue, c'est que les uns l'acceptent, les autres la refusent.

- La troisième renvoie les deux premières dos à dos, en faisant siens les arguments mis en avant par Paul Krugman depuis les années 90 : la notion de "compétitivité" a un sens pour les entreprises, mais ne peut pas être transposée au niveau macroéconomique, c'est-à-dire au niveau des pays. Deux argument sont centraux pour comprendre cette non-transposabilité (il y en a d'autres, mais je me concentre sur ceux-là) : 1- La théorie des avantages comparatifs. Cette théorie, extrêmement puissante et contre-intuitive, indique que deux pays ont un intérêt mutuel à échanger dès lors que leurs coûts de production sont différents. Plus précisément, ce sont les différences de coûts relatifs qui sont à l'origine de cet enrichissement mutuel des pays qui commercent. Si produire un pantalon en Inde coûte 10 fois plus cher qu'un kilo de blé, alors que le même pantalon coûte 20 fois plus cher à produire qu'un kilo de blé aux USA, alors les Indiens ont intérêt à produire des pantalons et les américains du blé, et ce même s'il existe des différences globales de productivité entre eux (l'exemple ne dit pas si produire un kilo de blé coûte plus ou moins cher aux USA, car cette information n'est pas utile). Le prix international des pantalons s'établira à un niveau compris entre 10 et 20 fois le prix d'un kilo de blé. Disons 15. Les Indiens seront gagnants, car pour chaque pantalon vendu, ils pourront acheter 5 kilos de blé en plus que s'ils avaient renoncé à produire ce pantalon pour produire eux-même leur blé. Inversement, il suffira aux américains de produire 15 kilos de blé pour s'acheter 1 pantalon, alors qu'ils auraient dû sacrifier la production de 20 kilos de blé (5 de plus) pour fabriquer eux-même ce pantalon. C'est du gagnant-gagnant. 2- la dynamique de la spécialisation : si, comme dans l'exemple précédent, les pays se spécialisent en conséquence de la mondialisation, alors il est logique que les entreprises des secteurs dans lesquels un pays ne se spécialise pas fassent faillite. Ça peut être prodigieusement douloureux, mais c'est la condition pour que les moyens de production (travailleurs, usines...) passent d'un secteur à l'autre. Autrement dit, l'intérêt des entreprises peut être opposé à celui de leurs États.

J'ai découvert l'existence d'une quatrième catégorie il y a plusieurs années en discutant avec ma directrice de thèse Flora Bellone, qui en était une représentante convaincue et passionnée. Pour comprendre cette quatrième catégorie, il faut entrer un peu plus dans le détail. Depuis que l'on sait modéliser en équilibre général des économies caractérisées par de la concurrence imparfaite et des rendements d'échelle croissants (en gros depuis une quarantaine d'années), les théoriciens du commerce international ont produit des modèles qui mettent en avant la possibilité qu'un pays enregistre des pertes nettes en conséquence de son intégration au commerce international. Ces théories ne font pas du commerce international un jeu à somme nulle, mais le gain n'est pas systématiquement garanti pour tous les pays. Pendant longtemps, les inventeurs de ces théories, dont Paul Krugman lui-même, ont considéré que l'hypothèse des pertes à l'échange pour certains pays était empiriquement négligeable, et qu'il valait mieux s'en tenir à la théorie des avantages comparatifs pour guider l'action publique. Mais cet argument empirique était très circonstancié, et pas forcément très probant. La quatrième catégorie correspond donc à ces économistes qui, sans confondre le commerce international avec une compétition, croient en l'idée qu'un pays peut être globalement perdant à s'insérer dans le commerce mondial.

Quelques années plus tard, Flora Bellone, et son collègue niçois Raphaël Chiappini, publient à La Découverte un Repère simplement intitulé "La compétitivité des pays".

Je ne peux pas chroniquer ce livre avec impartialité, mais je pense sincèrement qu'il est une lecture indispensable pour faire le point sur la littérature pertinente sur la question des gains aux échanges, et pour pouvoir aborder la question de la compétitivité des pays en évitant les écueils des catégories 1 et 2 ci-dessus.

C'est justement sur un court chapitre "clarifier les concepts" que s'ouvre l'exercice. La compétitivité d'un pays n'est pas celle de ses entreprises, n'est pas la productivité de ses travailleurs, n'est pas son attractivité, n'est pas la faiblesse des prix de ses exportations, mais bien sa faculté à tirer un gain net de son intégration internationale.

Le chapitre suivant fait un point, assez complet à ma connaissance, et très clair, sur les modèles théoriques dans lesquels le développement du commerce international peut se traduire par une perte nette pour un pays donné. Une précision peut être utile à ce stade : j'ai dit plus haut que les progrès faits en matière de modélisation de la concurrence imparfaite avaient fait émerger de nouvelles théories du commerce international dans lesquelles les gains à l'échange ne sont pas garantis pour tous. Néanmoins, il serait largement erroné de penser que cette possibilité de perdre à l'intégration internationale soit l'objet central de cette nouvelle littérature. Celle-ci s'attache plus largement à mettre en avant des effets du commerce qui n'étaient pas pris en compte dans la théorie classique des avantages comparatifs. Or certains de ces effets sont positifs : permettre d'approfondir la division du travail grâce à des marchés plus grands et donc des effets d'échelle (modèle de Krugman 1980, qui reprend une intuition d'Adam Smith), permettre de diffuser le progrès technique via les importations (modèle de Grossman Helpman 1991), permettre d'éliminer les firmes les moins productives au sein d'un pays, balayées par la concurrence, au profit des plus productives (Melitz 2003). Les auteurs du repère, évidemment, citent ces effets, mais ils tendent à mettre davantage l'accent sur les effets potentiellement négatifs de l'intégration internationale.

De ce point de vue, tout n'est pas également convaincant, mais tous les modèles présentés sont à connaître car ils structurent les débats actuels sur les gains à l'échange. A mon sens, l'effet négatif le plus convaincant concerne le risque d'agglomération, tel qu'il apparaît dans le modèle de Krugman et Venables (1995). Le principe est le suivant : les entreprises industrielles préfèrent avoir à proximité de nombreux fournisseurs d'intrants différenciés. Si un pays est plus industrialisé qu'un autre, elles préfèreront s'y installer. Ayant des coûts fixes, les fournisseurs en question ont eux-même intérêt à intervenir à proximité des grands marchés, donc dans les pays les plus industrialisés. Dans ces conditions, le monde attire le monde (ce sont des forces centripètes) et l'industrie tend à s'agglomérer. Une économie mondiale agglomérée concentre la richesse dans un petit nombre de centres, laissant au reste du monde des activités traditionnelles à rendements décroissants. Néanmoins, si les coûts de transport sont très élevés, ils peuvent empêcher ce phénomène d’agglomération car ils permettent aux entreprises industrielles de bénéficier de marchés protégés de la concurrence en s'installant en périphérie (c'est une force centrifuge). Une autre force centrifuge se manifeste si les coûts de transport sont, au contraire, très faibles : les entreprises industrielles peuvent alors bénéficier de salaires faibles en périphérie tout en continuant à fournir leurs clients où qu'ils se trouvent. Finalement, ce que montrent Krugman et Venables, c'est que l'agglomération est un phénomène intermédiaire, apparaissant lorsque l'économie mondiale commence à s'intégrer, puis disparaissant lorsque cette intégration s'approfondit. Ainsi, les pays du sud auraient-ils souffert des premières phases de la mondialisation, alors que ceux du Nord seraient victimes de son approfondissement actuel. (#autopromo J'ai eu le privilège de travailler récemment avec l'excellente Sandine Noblet, une autre doctorante de Flora Bellone, sur des modèles de ce type).

D'autres effets sont mis en avant dans le chapitre tels que les avantages comparatifs dynamiques (se spécialiser ou non dans des secteurs ayant un potentiel d'innovation à long terme) ou encore des défaillances institutionnelles qui condamnent certains pays à choisir de mauvaises spécialisations. Bien que Dani Rodrik soit largement cité dans le livre, je regrette que son article de 1996 Coordination failures and government policy: A model with applications to East Asia and Eastern Europe ne figure pas dans la revue de littérature car il est très éclairant sur ce que peut être un mauvais choix de spécialisation international dû à un défaut de coordination. En gros : une industrie à rendements croissants peut être viable dans un pays de niveau éducatif intermédiaire, mais ne jamais apparaître en l'absence d'un amorçage conséquent.

S'il vous semble superfétatoire de s'attarder sur des théories expliquant qu'un pays puisse être perdant à la mondialisation, alors que l'expérience quotidienne nous enseigne qu'il s'agit d'une évidence, je vous encourage vivement à réviser votre jugement. Car la question n'est pas de savoir si tout le monde est gagnant à la mondialisation. L'évidence est qu'il y a des gagnants et des perdants. La question est de savoir si, au sein d'un pays donné, les perdants peuvent perdre plus que ce que gagnent les gagnants. Et cette question est loin d'être triviale. Comme nous l'avons vu plus haut, il existe une mécanique très puissante, celle des avantages comparatifs, qui pousse à ce que les pays soient tous gagnants en net à commercer. Que les économistes orthodoxes aient, pendant si longtemps, fait de ces avantages comparatifs le socle de leur réflexion sur la mondialisation ne signifie pas qu'ils ignoraient l'existence de perdants. Au contraire : la théorie avait été affinée par le modèle Heckscher-Ohlin-Samuelson, dont le principal apport était précisément de mettre en avant les gagnants (capitalistes du Nord, travailleurs du Sud), et les perdants (travailleurs du Nord, capitalistes du Sud). Mais là encore, les gains nets positifs dans chaque pays étaient la règle. Il est très facile de bricoler sur un coin de table une théorie prouvant qu'un pays peut être perdant à la mondialisation. Allez, lançons-nous :

"30% des emplois et du PIB de la Syldavie proviennent de l'industrie textile. Suite à l'abandon de ses tarifs douaniers, l'industrie textile Syldave a subi de plein fouet la concurrence de pays à salaires plus faibles, et a dû réduire son activité de moitié. La mondialisation a donc coûté aux Syldaves 15% de leurs emplois et de leur PIB"

Si cette "théorie" vous convainc, alors vraiment, vraiment, je vous encourage à réviser votre jugement. Car cette théorie n'est pas en équilibre général : rien n'est dit sur ce que deviennent les salariés de l'industrie textile, sur la manière dont les syldaves financent leurs importations s'ils n'exportent plus, sur l'évolution des salaires, du taux de profit, des prix relatifs, du taux de change... Or, dès qu'on cherche à modéliser ces aspects là, il n'est pas si facile de ne pas retomber sur la bonne vieille histoire des avantages comparatifs. En bref, si on a mis du temps à créer ces nouvelles théories présentées dans le chapitre II de ce repère, c'est parce qu'on cherchait des théories qui tiennent vraiment la route, et il est vraiment important de les connaître et de les comprendre.

Le chapitre suivant passe en revue les différentes manières de mesurer la compétitivité des pays. Le sentiment qui prédomine est celui d'une grande frustration. Alors que, nous l'avons vu, la théorie économique dispose aujourd'hui d'outils conceptuels forts pour expliquer les mécanismes à l'origine des gains ou des pertes à l'intégration économique, la recherche sur les indicateurs permettant de prédire l’occurrence de ces effets semble balbutiante. Passons sur les mesures qui n'ont pas ou peu de fondements théoriques : parts de marché à l'exportation, mesure de la compétitivité prix (qui peut se justifier théoriquement à court terme, dans un cadre macroéconomique conjoncturel), ou le très médiatique indicateur du World Economic Forum. Les auteurs du Repère portent évidemment un regard critique sur ces indicateurs. Des indicateurs plus récents sont plus en phase avec les avancées de la littérature, et sont plus performants pour prédire les trajectoires de croissance. Citons entre autres les indicateurs développés par Hidalgo et Hausmann portant sur le niveau de sophistication et de complexité des exportations d'un pays. Ces indicateurs sont à rapprocher de la théorie des avantages comparatifs dynamiques : l'idée est que les produits les plus complexes sont associés à un fort contenu technologique, avec un fort potentiel d'innovation, et donc de croissance à long terme. Les pays ayant des spécialisations les plus sophistiquées / complexes connaissent, en effet, les meilleures performances en termes de croissance. Si le sujet vous intéresse, vous devriez d'ailleurs lire cet Atlas of Economic Complexity d'Hidalgo et Hausmann (et d'autres coauteurs). D'autres recherches récentes portent sur les verrous à la croissance des firmes (importants dans le cas indien par exemple) ou sur la diffusion des pratiques managériales.

Malgré ces avancées indéniables, la frustration vient du fait que ces indicateurs ne permettent pas, en soi, de prédire si un pays a intérêt à développer son intégration au commerce mondial. Supposons, à titre d'exemple, qu'un pays relativement protectionniste, ait un score assez faible sur les indicateurs de complexité / sophistication d'Hidalgo et Hausmann. Doit-on en conclure qu'il ne devrait pas faire disparaître ses protections commerciales ? Rien n'indique qu'une plus grande intégration économique ne va pas aider ce pays à rediriger ses moyens de production en direction des secteurs les plus complexes, grâce à une structure de la demande internationale plus favorable à ces secteurs-là.

Les auteurs ne cachent d'ailleurs pas éprouver eux-même cette frustration en fin de chapitre (p83) :

"(...) on peut souligner un manque notoire d'indicateurs qui aideraient les pays à mieux appréhender leur degré de vulnérabilité face aux risques d'agglomération et de spécialisation appauvrissantes, de conflits sociaux liés aux effets distributifs de l'ouverture, ou encore face aux crises liées aux mouvements internationaux de capitaux."

Il faut d'ailleurs reconnaître la difficulté de la tâche, puisqu'au moins dans le cas des phénomènes d'agglomération, la théorie prédit un effet boule de neige : deux régions initialement identiques en tout point finissent par diverger radicalement pour un niveau d'intégration intermédiaire, au profit de celle qui aura eu une activité industrielle un tout petit peu plus forte par hasard. Certes, dans la vie, d'autres considérations interviendront que le simple hasard, mais le message ici est que des différences importantes peuvent naître de conditions initiales presque identiques.

Le dernier chapitre fait le point sur les politiques de compétitivité. Parmi elles, les politiques industrielles. Une des questions abordées les plus importantes est, selon moi, celle de l'horizontalité ou de la verticalité de ces politiques industrielles. Comme le résument les auteurs, des années 80 jusqu'à une période récente, la tendance était à promouvoir des politiques industrielles dites horizontales. Le principe est de ne pas chercher à privilégier des secteurs, dits "stratégiques", au détriment d'autres, ni des "champions nationaux" au détriment de leurs concurrents, potentiels ou actifs. Pourquoi ? Pour deux raisons : la première est que des fonctionnaires du ministère au plan n'ont pas de raison a priori de faire de meilleurs choix que le marché pour désigner les secteurs prometteurs en termes de croissance. La seconde est que désigner des "champions nationaux" est la porte ouverte à tous les petits arrangements entre amis entre classe politique et grands patrons, sur le dos des contribuables et des consommateurs. Ainsi, l'horizontalité consiste à encourager les investissements quel que soit le secteur, à développer une formation supérieure de qualité, à encourager l'innovation... Depuis le déclenchement de la crise de 2008, les politiques verticales semblent revenir en odeur de sainteté. Pour les auteurs du Repère, les modèles fondés sur les avantages comparatifs dynamiques justifient ce choix, sans pour autant faire disparaître les limites de cette verticalité. Il est possible que certains secteurs soient plus porteurs que d'autres au niveau macroéconomique, et que les incitations privées soient insuffisantes (externalités et/ou contraintes de crédit) pour les soutenir autant qu'il serait pertinent. De là à dire que nos élus sont capables d'identifier ces secteurs... je ne peux m'empêcher de penser à Teddy Riner sur son nuage chantant "c'est cloud, c'est watt, c'est cloudwatt !" pour vanter les mérites de ce nouveau champion national du cloud computing. Je n'ai pas le sentiment qu'il s'agisse d'une grande réussite, ni que ce projet rayonne sur le reste de l'industrie française, mais l'avenir me donnera peut-être tort. Quelques minutes de cette leçon de Philippe Aghion au Collège de France (de 18:00 à 25:50 environ ; voire écoutez toute la leçon, y compris sa première partie pour mieux comprendre l'argument) sont consacrées au même sujet, et mettent en avant deux critères pour guider les politiques verticales (qu'Aghion soutient également) : cibler les secteurs innovants (en termes de brevets), et cibler les secteurs concurrentiels, dans les deux cas sans privilégier une firme au détriment des autres (y compris les entrants potentiels)

Une question apparait en filigrane dans ce chapitre : dans quelle mesure une politique de compétitivité adéquate peut-elle se substituer aux protections commerciales ? La question peut se poser différemment : si des pays ou des régions sont effectivement perdants en net dans la globalisation, la solution consiste-t-elle à revenir aux tarifs douaniers d'il y a 50 ans ? Ce n'est clairement pas le propos des auteurs, puisqu'ils posent le problème dans les termes suivants :

"Du côté des PVD, l'enjeu premier d'une bonne stratégie d'industrialisation est devenu celui d'attirer des IDE entrants de "qualité" (...). Du côté des pays industrialisés, l'enjeu est lié à l'insertion dans les chaînes d'activité mondiales et au repositionnement de leur économie sur des industries à forte capacité d'emploi à haute valeur ajoutée"

Si l'on se concentre sur le cas des pays industrialisés (Brexit et élection de Trump obligent), l'idée est que la mondialisation actuelle est, dans une large mesure, affaire de fragmentation des processus de production. Comme l'avaient prédit Jones et Kierzkowski dès 1988, l'amélioration des moyens de communication a permis aux firmes de découper leurs processus de production de manière à ce que chaque étape soit réalisée dans le pays disposant d'avantages comparatifs pour l'étape concernée. Il serait illusoire de penser que les pays industrialisés pourraient renouer avec une croissance vigoureuse, voire même demeurer prospères, en se coupant de ces processus. Si la politique industrielle doit avoir un rôle, il doit être précisément d'accompagner ce positionnement dans les chaînes d'activité mondiale, et certainement pas de remettre au goût du jour les politiques de substitution des importations qui ont échoué dans les années 70.

Vous l'aurez compris, "La compétitivité des pays" est plus qu'un simple Repère. Il alerte les non-spécialistes sur l'évolution récente du logiciel des spécialistes de commerce international, et il aborde les problèmes posés par la mondialisation en des termes tout autant éloignés d'une béatitude aveugle qui a pu, il y a peu de temps encore, négliger les risques réels de l'intégration, que des idées simplistes des populismes tant à la mode ces derniers temps. Si les inventeurs des nouvelles théories du commerce international avaient pris leurs propres idées un peu plus au sérieux un peu plus tôt, le terrain aurait d'ailleurs peut-être été moins fertile pour l'essor de ces populismes.

(PS : parce qu'un ancien thésard peut bien se faire plaisir à relever les coquilles de son ancienne directrice : non, Bill Clinton n'était pas président des USA en 1985 (p4), et le nom de Rodrik n'apparait pas dans la bibliographie (p120), ni son papier de 2014 cité p99. :-p )

samedi 12 novembre 2016

Trump, le vote populaire et le (bon) électeur médian

Pour la deuxième fois de son histoire depuis plus d'un siècle [corrigé le 7 mars], mais également pour la deuxième fois en 16 ans, les USA ont élu un président n'ayant pas recueilli la majorité du vote populaire. Depuis plus de 20 ans, l'électorat américain est "structurellement" démocrate, puisque depuis la première élection de William Clinton en 1992, le candidat du parti républicain n'a recueilli la majorité du vote populaire qu'une seule fois. C'était en 2004 et les circonstances permettent de penser qu'il s'agissait alors probablement davantage de soutenir un chef de guerre 3 ans après le 11 septembre que la marque d'une grande adhésion idéologique. L'explication de ce phénomène est assez simple. Les démocrates sont concentrés dans un petit nombre d'états dans lesquels ils sont nettement majoritaires. Or, être nettement majoritaire au sein d'un État ne sert à rien. Qu'un candidat soit légèrement majoritaire ou nettement majoritaire dans un État, de toute façon il obtiendra la totalité des grands électeurs de l’État. Mieux vaut, dans ce système, être légèrement majoritaire dans une majorité d'états que d'être nettement majoritaire dans une minorité d'états. Ainsi, sur les 232 votes recueillis par Hillary Clinton, près des deux tiers (147) l'ont été dans seulement 9 États sur 51(dont la Californie et New York) dans lesquels elle l'emporte par plus de 15 points d'avance. Donald Trump a, lui aussi, emporté certains états par plus de 15 points d'avance, 19 d'entre eux précisément, mais il s'agit d'états moins importants (Alabama, Alaska, Arkansas...) qui ne lui ont rapporté que 117 grands électeurs sur 306 (source).

Cette concentration géographique des électeurs démocrates est donc un handicap pour eux. Le propos de ce billet n'est pas de s'attarder sur les avantages et les inconvénients d'un tel système électoral. Je me contenterai de dire que ses inconvénients sautent aux yeux. A contrario, vous trouverez dans ce vieux post de John Cochrane (dont, soit dit en passant, les sympathies républicaines sont assez peu dissimulées dans cette interview récente) un argument favorable à ce système : dans un État fédéral, il est préférable d'éviter que le pouvoir soit confié à un camp n'étant majoritaire que dans une minorité d’états. Remarquons que la désignation de la majorité parlementaire en France obéit aux mêmes règles (bien qu'il n'y ait eu, à ma connaissance, aucun 'bug' de ce style sous la 5ème république). De même, le jour où les électeurs Européens éliront le président de la commission au suffrage universel, il y a fort à parier qu'ils le feront selon un système de grands électeurs, pour éviter, par exemple, que ne soit élu un candidat minoritaire dans tous les pays sauf en Allemagne où il remporterait 80% des suffrages (imaginez l'ambiance...)

Le propos de ce billet est de mettre en garde contre la tentation que l'on aurait de penser que si la règle électorale avait été différente, alors Hillary Clinton aurait emporté l’élection. En effet, si la règle avait été différente, alors la campagne elle-même aurait été différente. Si une équipe de football perd un match par 1 but à 0 après s'être vue refuser deux buts pour hors-jeu, elle peut se consoler en disant qu'en l'absence de la règle du hors-jeu, elle aurait gagné la partie. Sauf qu'en raison même de l'existence de la règle, les défenses "jouent" le hors-jeu, laissant les attaquants tout seuls devant afin qu'ils soient en faute. Elles ne le feraient pas si les règles étaient différentes.

En matière de politique, également, on joue en fonction de la règle. Lorsque la règle est qu'il faut une majorité d'électeurs pour emporter l'élection, alors la stratégie à jouer est celle de l'électeur médian (cf). Le principe est simple : si seuls deux candidats sont en lice, celui de droite obtiendra toujours le vote des électeurs plus à droite que lui, le candidat de gauche obtiendra celui des électeurs plus à gauche que lui. L'enjeu est donc le centre. Chaque candidat doit donc se rapprocher au maximum des positions de l'autre pour lui chiper ses électeurs. A l'équilibre, les deux candidats défendent quasiment les mêmes positions, correspondant à celles de l'électeur médian : celui qui est plus à droite que la moitié du corps électoral, et plus à gauche que l'autre moitié. Le hasard détermine le résultat du suffrage. Seule la volonté de ne pas créer trop d'abstention aux extrêmes peut justifier de légères différences entre les candidats.

On peut espérer que les positions outrancières défendues par Donald Trump durant la campagne ne soient pas celles de l'électeur américain médian. Ce qui ne signifie pas que sa stratégie était mauvaise.

Car lorsque, en revanche, le système électoral est celui des grands électeurs, alors ce n'est plus l'électeur médian qu'il faut draguer, mais l'électeur médian... de l’État médian. Pour se choisir un style et un discours de campagne efficaces (en termes de probabilités d'être élu), les électeurs californiens et texans n'ont strictement aucun intérêt. Les premiers voteront démocrate, les seconds républicain. Seuls comptent les états susceptibles d’hésiter entre les deux candidats. Les fameux 'swing states'. Il se trouve que nombre de ces swing states sont situés dans la rust belt, c'est à dire dans ce nord-est qui a subi de plein fouet la désindustrialisation : notamment le Michigan, l'Ohio, la Pennsylvanie, le Wisconsin. Donald Trump a remporté ces États, et leurs 64 grands électeurs. Pour mémoire, il a en tout 74 grands électeurs d'avance sur Hillary Clinton.  Contrairement à ce que dit le Figaro, il n'a pas "cartonné" dans ces états, qui font partie de ceux qu'il a remporté avec les scores les plus serrés. Mais il a réussi à toucher leurs électeurs médians. Et il n'est guère douteux que les électeurs médians de ces états là sont assez différents de l'électeur médian américain. Plus en révolte contre la classe politique traditionnelle, plus hostiles à la mondialisation et aux traités de libre échange, plus sensibles à l'intérêt que pourraient avoir pour eux une politique de grands travaux. Étant donnée la règle du jeu de cette élection, la bonne stratégie consistait à séduire ces électeurs là, et pas les autres. Trump a perdu la Californie de 2'500'000 voix, et a gagné le Michigan (et ses 16 grands électeurs) de 13'000. Si ses outrances anti-système lui ont fait perdre 1'000'000 voix en Californie et lui en ont fait gagné 20'000 dans le Michigan, alors elles ont été une mauvaise stratégie pour gagner le vote populaire, mais une bonne stratégie pour remporter l’élection, ce qui était son but. La seule finesse était de ne pas perdre d'autres swing states importants, comme la Floride. Je ne connais pas les spécificités politiques de la Floride, mais on peut penser que le côté anti-immigration du discours de Trump y a trouvé un écho favorable, et parfaitement compatible avec le discours anti-mondialisation destiné à la rust belt.

Suite aux commentaires spontanés des journalistes sur la victoire du candidat des laissés pour compte, de nombreux commentateurs ont souligné que Trump avait, en fait, réalisé de meilleurs scores chez les riches que chez les pauvres. Mais ce contre-argument n'est pas convaincant, car il raisonne sur la moyenne au lieu de raisonner à la marge. Bien entendu, l'électorat démocrate est plus populaire que l'électorat républicain. Mais c'est probablement en séduisant, dans la rust belt en particulier, quelques centaines de milliers de laissés pour compte de plus que s'il avait tenu un discours plus mainstream qu'il a emporté l'élection.

Maintenant qu'il est élu, il sera, comme tous les présidents, sensible aux sondages d'opinion. Or ceux-ci ne sont pas exprimés selon le système des grands électeurs, mais selon le système du vote populaire ("x% d'américains se disent satisfaits de l'action du président"). Il y a fort à parier que, pour ne pas trop être challengé par l'opinion publique, il va tenter de faire évoluer son positionnement de celui de l'électeur médian de l'Ohio vers celui de l'électeur médian des USA. Une heure de discussion avec Barack Obama l'a déjà conduit à renoncer à abroger l'Obamacare. Avec l'image de dur à cuire qu'ils s'est forgé durant cette campagne, il sera probablement raillé lorsqu'il commencera à renoncer une à une à ses promesses les plus extravagantes. Lui le pourfendeur d'une classe politique sans scrupule ni valeur entrera-t-il dans l'histoire de son pays comme le champion du reniement ? On a quelques raisons de le penser, et pour tout dire, de l'espérer.

samedi 5 novembre 2016

Faut-il encore innover ?

Si vous ne l'avez pas encore fait, vous devriez lire le billet "We don't need no innovation" d'Alexandre Delaigue. Le propos est assez simple, mais très iconoclaste : on en fait trop avec l'innovation. Dans la lignée de Robert Gordon, l'auteur nous rappelle que les innovations les plus récentes sont les moins utiles. Cessons donc de réclamer à cor et à cri des entreprises innovantes, des pédagogies innovantes, des politiques innovantes. Contentons-nous de bien faire ce qu'on sait déjà faire et de maintenir en bon état nos moyens de production, d'éventuelles innovations naîtrons par hasard de ces opérations de maintenance.

Toutes les modes finissent par être agaçantes, la passion pour l'innovation n'échappe pas à la règle. Comme Alexandre Delaigue, je préfèrerais que les universitaires soient au moins un peu évalués sur la qualité de leurs cours (ce qui n'est pas du tout le cas actuellement) plutôt que sur le caractère innovant de leur pédagogie (filmer son cours sur sa gopro plutôt que de le faire face à des étudiants) ou sur leur capacité à couper en morceau les résultats de leur dernière recherche pour en tirer 3 articles au lieu d'un seul.

Il y a quand même quelques objections.

1- AD nous rappelle que, d'après le modèle de Solow, un pays riche consacre l'essentiel de ses investissements à entretenir les équipements existants, et non à en créer de nouveaux. C'est vrai, mais selon le même modèle, en l'absence d'innovation depuis la révolution industrielle, nous aurions un revenu par habitant environ 10 fois inférieur à ce qu'il est. Grâce à l'innovation, les pays qui étaient déjà riches au 19ème siècle n'ont pas cessé d'accumuler de nouveaux moyens de production, largement au-delà de la maintenance de l'existant.

2- Lorsque les efforts de recherche sont moins efficaces (parce que les meilleures idées ont déjà été inventées), faut-il faire moins d'efforts (parce qu'ils sont moins rentables), ou faut-il en faire plus (parce qu'on accepte mal de voir diminuer le rythme du progrès technique) ? Je présume que le lien entre efficacité de la recherche et effort optimal a la forme d'une courbe en cloche. Si les idées tombent du ciel, inutile de faire trop d'efforts, le progrès est presque gratuit. Si, au contraire, quels que soient les efforts fournis, aucune idée nouvelle ne peut plus être découverte, alors autant laisser tomber la recherche et se consacrer à la production de ce qu'on sait déjà faire. Entre les deux, il doit exister une valeur critique de la productivité des activités de recherche au-delà de laquelle il est pertinent de faire plus d'efforts lorsque ces efforts sont moins efficaces. Je suis, hélas, convaincu que les efforts de la recherche sont moins efficaces aujourd'hui qu'il y a 100 ans, mais je ne suis pas sûr que l'on ait déjà franchi cette valeur critique, qui légitimerait une baisse des efforts de recherche.

3- Ce qui me fait penser que cette valeur critique n'a pas encore été franchie, c'est que j'imagine assez facilement de quelle manière des innovations incrémentales fondées sur des technologies déjà connues pourraient rendre caduques grand nombre d'activités jusqu'ici exercées par des hommes, ce qui est, dans une perspective Schumpeterienne, le moteur de la croissance : chauffeur, caissier, jardinier, agent d'entretien, comptable, maçon, secrétaire, manutentionnaire... Les robots, intelligences artificielles, imprimantes 3d et autres techniques qui, à défaut d'être récentes, sont en tout cas en progrès constants, pourraient permettre de remplacer les hommes dans ce que ces tâches ont de plus mécanique. Certes, cette perspective a de quoi effrayer, en particulier pour ce qui concerne les capacités de reconversion des travailleurs les moins qualifiés. Mais ces craintes légitimes sont très différentes de celles liées à la fin du progrès technique. Et elles sont la contrepartie d'un enrichissement global rendu à nouveau possible par l'innovation.

4- Les véritables politiques de l'innovation ne sont pas nécessairement celles que l'on croit. Les crédits d'impôt ou les programmes ciblés de financement de la recherche sont au mieux de petits coups de pouce à l'innovation, au pire de simples campagnes de pub pour les dirigeants politiques qui les promeuvent. Pour ne pas parler de "l'esprit start-up" qu'il s'agirait s'insuffler aux futurs conseillers d'Etat ou aux caissières de Monoprix. A en croire la thèse défendue brillamment par Daron Acemoglu et James Robinson, ce qui fait la différence entre une société qui n'innove pas et une société qui innove, ce sont des institutions politiques et économiques inclusives : état de droit, protection des libertés individuelles, système éducatif ouvert, marchés ouverts... Cette thèse n'est certes pas consensuelle, et des recherches récentes pointent plutôt une causalité inverse. Le débat est loin d'être clos, mais une chose est sûre, c'est que renoncer à l'innovation, c'est accepter que la croissance ne provienne que de l'accumulation de facteurs de production. Et accepter cette idée peut être lourd de conséquences. Dans une société qui fait reposer son économie sur la simple accumulation du capital, les incitations à investir peuvent être remplacées par une étatisation de l'investissement. Les principales activités économiques peuvent être confiées à des monopoles protégés par le pouvoir en place. Les rares innovateurs peuvent être dénoncés comme risquant de déstabiliser l'ordre social. On peut exproprier sans risque. L'éducation ne sert qu'à reproduire les catégories sociales à l'identique. Enfin la répartition des richesses devient la seule façon de s'enrichir, ce qui est propice soit à la généralisation des conflits, soit à un contrôle accru de l'Etat sur ses administrés pour maintenir la stabilité par la force.

L'histoire récente nous invite à considérer avec prudence les vertus de l'innovation. Les figures de Carlos Slim et de Vladimir Poutine devraient nous faire considérer avec plus de méfiance encore les sociétés qui renoncent à l'innovation.

mardi 27 novembre 2012

Copé et Fillon sont des agneaux...

... car le vrai match viril du moment, il oppose Jeffrey Sachs à Daron Acemoglu et James Robinson

Perso, je mets mon billet sur Acemoglu-Robinson.

lundi 12 novembre 2012

Publicité mensongère ?

Désolé pour le HS après une longue période creuse, mais je suis vraiment embêté par cette publicité pour l'Ipad mini

http://www.youtube.com/watch?v=uxkw72IX1PI

Depuis longtemps (de mémoire, c'était déjà vrai au début de la décennie 1990 #anciencombatant), Apple est très prisé par les musiciens. Ici, ce petit duo de pianos avec les deux Ipads (le grand et le petit) donne vraiment envie d'être à la place des doigts qui pianotent. Mais écoutez bien, et vous vous rendrez compte que dès la dix-neuvième seconde (au moment où l'on ne voit plus le grand Ipad), le son que l'on entend s'améliore considérablement, et ne correspond certainement plus à ce qui pourrait être réellement obtenu avec les applications piano de ces deux tablettes.  Oui, mesdames et messieurs, je l'affirme, à partir de la 19ème seconde, c'est du play back ! Et je le demande solennellement : que fait le CSA ?

vendredi 21 septembre 2012

Un très bon nouveau blog

C'est ici. Vraiment très bon pour qui s'intéresse à la macro (surtout les débats US).

Pour le côté Voici, toujours vendeur, en plus c'est un cousin lointain de Monsieur 47%.

- page 1 de 38