L’économie entre science, idéologie et gouvernance

Réflexions autour de la première grande crise du XXIe siècle. Discours prononcé à l’occasion de la réception de Thierry de Montbrial à l’Académie royale des sciences économiques et financières de Barcelone, 18 mars 2010.

Il est banal de dire que la crise financière et économique globale qui a éclaté en 2007 avec l’effondrement du marché hypothécaire des subprimes aux États-Unis est sans précédent, et qu’elle n’est seconde en ampleur que par rapport à la Grande Dépression des années 1930. Mais si nous considérons la situation actuelle dans une perspective historique, comme le font Carmen Reinhart et Kenneth Rogoff dans leur étude approfondie sur les crises financières depuis plus de huit siècles, couvrant soixante-six pays à travers les cinq continents , une image bien différente émerge. Les auteurs mettent en évidence un thème commun sous-jacent à toute la gamme des situations identifiées dans leur livre : « c’est que l’accumulation excessive de dettes, que ce soit par les gouvernements, les banques, les entreprises ou les consommateurs, crée souvent un risque systémique plus grand qu’il ne paraît pendant une phase d’expansion […]. De telles accumulations de dettes à grande échelle engendrent des risques parce qu’elles rendent l’économie vulnérable aux crises de confiance, en particulier quand la dette est à court terme et doit être constamment refinancée. » Reinhart et Rogoff démontrent que la plupart des phases d’expansion alimentées par les dettes se terminent mal. Ils scannent de longues périodes historiques « pour capter des événements “rares” qui sont trop souvent oubliés » et concluent que la faillite des États (sovereign defaults), les crises bancaires (panique des clients et faillite de banque) ou encore les crises de taux de change, autant de phénomènes liés d’une manière ou d’une autre à diverses formes d’endettement, n’ont jamais cessé d’exister. Ils observent justement qu’« un événement qui paraît rare pendant une période de vingt-cinq ans peut ne pas l’être une fois replacé dans un contexte historique suffisamment long ». Mais vingt-cinq ans, c’est le temps d’une génération, suffisant pour oublier les leçons du passé. De surcroît – c’est l’une des principales remarques faites par Reinhart et Rogoff –, les gouvernements ont de tous temps été « à peine plus transparents que les banques contemporaines avec leurs transactions hors bilan et leurs autres astuces comptables ». Encore une citation de ce livre important : « nous prouvons que, pendant la montée vers la crise des subprimes, les indicateurs courants aux États-Unis, tels que l’inflation du prix des actifs, l’augmentation de l’effet de levier, la persistance de déficits extérieurs considérables et une trajectoire de croissance économique en décélération, manifestaient virtuellement tous les symptômes d’un pays au bord d’une crise financière majeure. Cette façon de voir la marche vers la crise donne à réfléchir ; nous montrons que la route vers la sortie peut également être pleine de périls. Les lendemains de crises bancaires systémiques s’accompagnent de contractions marquées et prolongées dans l’activité économique et pèsent lourdement sur les ressources des gouvernements. »
Tout ceci étant dit, ce qui est différent d’une crise financière à l’autre, c’est le chemin spécifique qui y mène. Commentant la situation dans le journal allemand Handelsblatt le 13 octobre 2008 – à un moment de grande anxiété –, Tommaso Padoa-Schioppa , un ancien ministre des Finances italien fort respecté, introduisait la distinction fondamentale entre « une crise dans le système » – comme les crises latino-américaine ou asiatique des années 1990 ou encore l’éclatement de la bulle technologique au début du XXIe siècle – et « la crise d’un système », comme celle déclenchée par l’effondrement du marché des subprimes. D’où l’attention désormais attachée à la mise en place de mécanismes de surveillance susceptibles de détecter les signaux annonciateurs de crises systémiques futures.
Il importe de souligner que le désordre actuel est d’abord la conséquence d’un échec intellectuel et plus encore idéologique. Chacun connaît le mot de John Maynard Keynes : « Les idées des économistes et des philosophes politiques, qu’elles soient justes ou fausses, sont plus puissantes qu’on ne le croit habituellement […] En vérité, le monde est essentiellement gouverné par les idées. Les esprits pratiques, qui se croient exempts de toute influence intellectuelle, sont presque toujours tributaires d’un économiste disparu. »
Dans son best-seller The Myth of the Rational Market , Justin Fox met en cause le postulat du marché rationnel et plus spécifiquement l’hypothèse de l’efficacité des marchés (efficient market hypothesis), formulée à l’Université de Chicago dans les années 1960 en référence au marché américain des valeurs mobilières, selon laquelle « les marchés financiers posséderaient une sagesse dont les individus, les entreprises et les gouvernements seraient dépourvus ». De là dérivent des modèles comme la fameuse formule de Black et Scholes sur la détermination du prix des options. Ces modèles sont fondés sur une transposition à la sphère financière, pensée isolément de l’économie réelle, d’une version simplifiée du modèle d’Arrow et de Debreu de l’équilibre économique général et l’optimum. Elle aura été un exemple remarquable, pendant un certain temps, de prophétie autoréalisatrice (self-fulfilling prophecy) et aura même permis à certains de ses adeptes de faire fortune.
Le modèle d’Arrow-Debreu est à juste titre considéré comme l’une des plus grandes réalisations de la théorie économique au XXe siècle, et je l’ai moi-même pratiqué intensivement, mais, comme ses créateurs l’ont d’ailleurs toujours reconnu, il convient de l’utiliser avec discernement quand il s’agit d’interpréter la réalité. De passage à Paris peu après l’attribution de son prix Nobel en 1983, Gérard Debreu avait été assailli par les journalistes de questions souvent banales portant sur la politique économique, auxquelles il répondait systématiquement par un aveu d’incompétence. Moyennant quoi, bien sûr, les journalistes, complètement dégoûtés, s’étaient détournés de lui. Fort éclairante, par exemple, pour mieux comprendre la faillite des systèmes économiques des démocraties populaires à l’époque de la guerre froide (son rôle à cet égard fut incontestable, à l’intérieur comme à l’extérieur de l’empire soviétique), la pertinence de la théorie de l’équilibre et de l’optimum est paradoxalement moins évidente pour analyser les systèmes capitalistes. Étant donné son importance considérable dans la pensée économique contemporaine, j’en rappellerai l’essence. On part d’un nombre donné de « consommateurs » et de « producteurs ». Les premiers sont caractérisés par leur classement de préférence sur toutes les combinaisons possibles de quantités d’un ensemble de « biens » également spécifié une fois pour toutes. Les seconds sont assimilés à des « fonctions » ou « ensembles de production », lesquels précisent les relations possibles entre inputs et outputs. Enfin, la « nature » donne les ressources a priori disponibles de chacun des biens, antérieurement à toute activité économique. Ces ressources, ainsi que les droits sur les producteurs, sont répartis entre les consommateurs, selon des clés également exogènes. Le but est d’exhiber un système de prix tel que la maximisation de sa satisfaction pour chaque consommateur et de son profit pour chaque producteur, compte tenu de la répartition des revenus découlant des clés dont je viens de parler, conduisent au miracle de la « main invisible » (Adam Smith ne parlait pas de « l’intelligence des marchés »), c’est-à-dire à l’égalité de l’offre et de la demande simultanément pour chacun des biens. De plus, la distribution des ressources réelles résultant de l’équilibre général est « optimale au sens de Pareto », c’est-à-dire réalise en un sens profond une utilisation efficace des ressources. L’objet premier de la théorie de l’équilibre et de l’optimum est d’établir, sur la base d’hypothèses mathématiques aussi interprétables et peu contraignantes que possible, l’existence de systèmes de prix ayant les propriétés précédentes. La plus irréductible de ces hypothèses est la « convexité » – une figure géométrique platonicienne –, traduction mathématique de l’idée de « rendements décroissants ». J’y reviendrai plus loin. Dès lors que le problème de l’existence a des solutions, on sait en principe les calculer. Cependant, sur un plan phénoménologique, une tout autre question, intimement liée au problème du temps et à la durée, est la compréhension de la nature des informations échangées par les agents économiques, des cheminements auxquels les échanges donnent lieu, et de la caractérisation des situations auxquelles ils aboutissent. L’approfondissement de cette question conduit à réfléchir au rôle du temps et de la durée.
En disant que la théorie de l’équilibre et de l’optimum est statique, on entend implicitement qu’elle est l’équivalent de la statique en mécanique. Resterait donc à découvrir l’équivalent économique des lois de Newton. En fait, toutes les tentatives de ce genre, et il y en a beaucoup particulièrement dans le troisième quart du XXe siècle, ont conduit à des impasses, la plus flagrante étant dans le domaine monétaire. Rien d’étonnant à cela, car les plus grandes difficultés de la notion économique de temps se concentrent dans la monnaie. La raison de ces impasses me semble tenir à ce que, par nature, la théorie de l’équilibre et de l’optimum est une « Idée », une « Forme », au sens platonicien ou aristotélicien du terme (d’où les majuscules). Il n’est d’ailleurs pas innocent de noter que son élaboration est concomitante du bourbakisme triomphant, c’est-à-dire d’une école française visant à établir « la » mathématique sur les bases les plus unitaires et les plus générales possibles. Ce mouvement intellectuel s’est éteint à partir des années 1970, et parallèlement les économistes théoriciens ont tendu à délaisser les constructions à prétention universelle, en faveur de la multiplication de petits modèles ad hoc, sans pour autant marquer une rupture épistémologique dans la mesure où ces petits modèles sont plus ou moins directement dérivés du paradigme de l’équilibre.
À ce stade, je ne saurais mieux faire que de me référer à l’analyse lumineuse du chapitre IV de L’Évolution créatrice, intitulé : « Le mécanisme cinématographique de la pensée et l’illusion mécanistique ». Bergson écrit : « [La philosophie des Idées] part de la Forme, elle y voit l’essence même de la réalité. Elle n’obtient pas la forme par une vue prise sur le devenir ; elle se donne des formes dans l’éternel ; de cette éternité immobile la durée et le devenir ne seraient que la dégradation. La forme ainsi posée, indépendante du temps, n’est plus alors celle qui tient dans une perception ; c’est un concept. Et, comme une réalité d’ordre conceptuel n’occupe pas plus d’étendue qu’elle n’a de durée, il faut que les Formes siègent en dehors de l’espace comme elles planent au-dessus du temps. Espace et temps ont donc nécessairement, dans la philosophie antique, la même origine et la même valeur. C’est la même diminution de l’être qui s’exprime par une distension dans le temps et par une extension dans l’espace.
Extension et distension manifestent alors simplement l’écart entre ce qui est et ce qui devrait être. Du point de vue où la philosophie antique se place, l’espace et le temps ne peuvent être que le champ que se donne une réalité incomplète, ou plutôt égarée hors de soi, pour y courir à la recherche d’elle-même . » Un peu plus loin, l’auteur observe : « […] le physique est du logique gâté. En cette proposition se résume toute la philosophie des Idées. » Les Idées existent donc par elles-mêmes. Bergson voit dans cette philosophie « la métaphysique naturelle de l’intelligence humaine », à laquelle on aboutit « dès qu’on suit jusqu’au bout la tendance cinématographique de la perception et de la pensée ». Par « tendance cinématographique », Bergson entend la représentation d’un phénomène temporel comme une succession (déterministe, ou aléatoire dans le cadre d’un espace probabilisable bien posé, ce qui suppose un ensemble d’« états de la nature » totalement identifié a priori) d’« images » fixes, représentant chacune une sorte d’équilibre. La fécondité de cette méthode est éclatante dans les sciences physiques, même s’il convient d’en reconnaître les limites puisqu’aucun système n’est jamais « isolé ». Sa mise en œuvre dans les sciences économiques est beaucoup plus réductrice.
Il me semble en effet que, dans son état actuel – aboutissement d’une évolution dont le début remonte au XVIIIe siècle –, la science économique (théorie « pure » ou économétrie) est essentiellement une construction « cinématographique » de type platonicien ou aristotélicien, au sens de la théorie des Idées. On ne doit donc l’utiliser qu’avec prudence, conformément aux sages conseils de Schumpeter, lequel insistait sur l’importance primordiale de l’histoire dans la formation de l’économiste, un point de vue que le jury Nobel a pris en considération en couronnant (en 1993) un auteur comme Douglass North, théoricien et surtout historien du changement économique au sein des sociétés, et des institutions correspondantes .
La transposition dans la sphère financière du paradigme de l’équilibre général (transposition dans laquelle, notons-le, il n’y a guère de place pour une véritable prise en compte de la monnaie, en raison de l’évacuation du temps ou mieux de la durée) a pu sembler plus réaliste que la version d’origine à des auteurs peu sensibles à la philosophie ou tout au moins à l’épistémologie . Il est vrai, je le répète, qu’ils ont été servis par des apparences d’autant plus trompeuses que certains ont bâti des fortunes à partir de ces modèles. Du côté des décideurs publics, il est également vrai qu’une personnalité comme Alan Greenspan ne s’est jamais pris pour un économiste mathématicien. Mais à l’évidence, il s’est impliqué dans l’idéologie du marché efficace, à l’instar de tant d’« esprits pratiques », pour employer la terminologie de Keynes.
Justin Fox commence son livre avec l’anecdote de l’ancien président de la Réserve fédérale (Fed), assis à la table des témoins dans une salle d’audition de la Chambre des représentants aux États-Unis, fin octobre 2008. Greenspan est contraint d’admettre qu’il a mal compris comment le monde fonctionnait. Le président de séance insiste : « En d’autres termes, vous avez découvert que votre vision du monde, votre idéologie, n’était pas correcte. Elle ne fonctionnait pas ». « Précisément », répond Greenspan. « C’est précisément la raison pour laquelle j’ai été choqué, parce que sur la base d’une accumulation considérable de preuves, il se trouve que pendant quarante années ou plus ma vision a remarquablement bien fonctionné. » L’erreur de Greenspan est celle de tous ceux qui ne savent imaginer l’avenir qu’en extrapolant le passé récent et en se laissant enfermer dans un cadre idéologique.
En tant que président de la Fed, commente Justin Fox, Greenspan avait célébré la financiarisation de l’économie globale. « Ces instruments augmentent la capacité de différencier les risques et de les répartir entre les investisseurs les plus aptes à les assumer », affirmait non sans de solides raisons le célèbre banquier central en 1999, se référant notamment aux marchés dérivés. En 1996, Greenspan n’en avait pas moins manifesté un jour la crainte que les marchés financiers puissent se perdre dans une bouffée « d’exubérance irrationnelle ». Mais comme lesdits marchés s’étaient rapidement repris, il en avait tiré la conclusion « qu’ils en savaient plus que lui ».
Ainsi convaincu – avant le tournant de septembre 2008 (faillite de la banque d’investissement Lehman Brothers) – de « l’intelligence » des marchés, Alan Greenspan a salué sans discernement l’innovation financière et rejeté comme indésirable et d’ailleurs selon lui impraticable l’idée de rechercher des instruments monétaires susceptibles d’éviter ou tout au moins de contenir la formation de bulles financières. De la même façon, il eut toujours tendance à prendre à la légère le déficit structurel de la balance des paiements américaine. Je me souviens d’une conversation avec lui dans les années 1990 sur ce dernier point. Il m’avait alors dit en substance : « J’ai constaté pendant trente ans ou plus que ce déficit ne posait pas de problème. » Sous couvert de pragmatisme, son idéologie était largement partagée non seulement à Washington et à Wall Street, mais aussi presque partout dans le monde, à une époque où les concepts d’efficacité du marché et de mondialisation tendaient à être identifiés l’un à l’autre .
De fait, au tournant du millénaire, la vision dominante était que « le problème fondamental de la prévention des dépressions économiques était en pratique résolu ». Ainsi s’exprimait typiquement Robert Lucas – lauréat du prix Nobel d’économie en 1995 pour sa contribution à l’élaboration du concept d’anticipations rationnelles –, à l’occasion de la réunion annuelle de l’American Economic Association en 2003. Comme l’observe Paul Krugman dans son livre Return of Depression Economics , « Lucas n’a jamais prétendu que le cycle économique, cette alternance irrégulière de récessions et d’expansions avec laquelle on avait vécu pendant au moins un siècle et demi, était aboli. Mais il a réellement affirmé que le cycle était désormais apprivoisé, suffisamment pour que le bénéfice social d’un “apprivoisement” plus grand soit insignifiant : lisser les vaguelettes de la croissance économique, expliquait-il, ne produirait que des bénéfices négligeables en termes de bien-être. En conséquence, il était temps de déplacer l’attention vers des sujets tels que la croissance économique à long terme. » Tel était également le point de vue de Ben Bernanke à une époque où nul n’imaginait qu’il succéderait un jour à Greenspan.
Comme toujours, il y avait bien quelques dissidents. Krugman, le lauréat du prix Nobel d’économie en 2008, bien connu du grand public, a publié la première édition de son livre Return of Depression Economics en 1999. L’économiste français Maurice Allais, lui-même prix Nobel en 1988, n’a jamais cessé de batailler sur le thème d’une instabilité potentielle du système monétaire et financier mondial . Mais comme tant d’autres, leurs voix – surtout celle d’Allais qui n’a jamais été un bon communicateur – se perdaient dans le désert.
Il convient de rappeler qu’en réalité le débat sur la maîtrise des cycles économiques remonte à l’âge d’or du keynésianisme. En effet, l’essence de la vulgate keynésienne n’était-elle pas justement de prétendre avoir trouvé une solution simple au « problème fondamental de la prévention des dépressions économiques » grâce au mécanisme du multiplicateur ? Selon ce modèle rapidement devenu un paradigme, la monnaie et la dette ne jouent aucun rôle. Le combat – empirique, théorique et politique – d’un Milton Friedman tourna pendant plusieurs décennies autour de la primauté de la politique monétaire, conçue comme devant obéir à des règles fixes. Friedman considéra avoir démontré que la dépression comme l’inflation sont toujours des phénomènes monétaires. Cette grande personnalité a significativement enrichi la réflexion sur la politique économique, mais une des faiblesses de sa théorie de la demande de monnaie est la non-prise en compte de la distinction entre transactions réelles et transactions financières. Dans la période du keynésianisme triomphant, deux personnalités françaises se sont également distinguées par leurs « combats pour l’ordre financier » : Jacques Rueff (1896-1978) – l’expression qui précède est le titre d’un de ses livres –, et Maurice Allais, né en 1911, déjà cité. Leur influence internationale est hélas restée très limitée.
Contrairement aux rêves de certains des plus grands économistes théoriciens de l’après-Seconde Guerre mondiale, y compris Paul Samuelson – avec lequel j’ai eu la chance d’avoir une conversation sur ce sujet, dans les années 1980 –, l’économie n’est pas et probablement ne sera jamais une science exacte comparable à la mécanique classique ou même à la thermodynamique, essentiellement parce que les hommes n’agissent pas comme des robots. Et d’une certaine façon, l’approche « cinématographique » de la théorie économique moderne – y compris la théorie des jeux – fait penser à une sorte de robotique. En tant que science humaine, l’économie politique est vouée à rester une combinaison d’art et de science, comme les banquiers centraux, ces spécialistes de la durée économique, ne le savent que trop bien.
Que la science économique dans son état actuel ressemble à une sorte de robotique est évident. Dans la théorie dite néoclassique du consommateur, l’individu est une machine définie par un « préordre de préférence » ou une « fonction d’utilité » et son comportement se réduit à la maximisation de ce préordre ou de cette fonction sous la contrainte budgétaire. Or, point n’est besoin d’un grand effort intellectuel pour constater que les sujets vivants de l’actualité économique ne comparent qu’une petite partie des combinaisons virtuelles de biens, que leurs préférences sont instables et sujettes à toutes sortes d’influences et d’émotions, que leurs décisions de caractère patrimonial mettent en jeu des ressorts psychologiques différents de leurs choix courants et ne sont pas moins sujets à des chocs émotionnels, qu’en réalité les choix de toute nature sont soumis à la pression de l’environnement social, à la publicité, etc. D’où l’intérêt de la « neuroéconomie », une jeune discipline qui n’a pas encore inspiré la révolution scientifique à laquelle on est en droit de s’attendre . Dans la théorie néoclassique du producteur, le robot est déterminé par la fonction ou l’ensemble de production, un concept dont toute humanité est exclue, qu’il s’agisse de la dimension créatrice de l’entrepreneur ou de l’art largement psychologique du management. Certes l’économie industrielle a développé des modèles très intéressants et souvent utiles pour l’action, inspirés de la théorie des jeux, mais cela n’altère pas la validité de la remarque précédente. Il n’est point surprenant que l’œuvre de Schumpeter ait été négligée dans les universités américaines quand on croyait que Keynes avait découvert le secret du plein-emploi puis à l’époque où triomphait dogmatiquement l’Idée ou le paradigme de l’équilibre et de l’optimum – celle où dans une thèse de PhD sous la houlette de Gérard Debreu je m’escrimais à trouver une place pour le temps et la monnaie en approfondissant la notion d’équilibre temporaire. Il n’est pas davantage surprenant que, plus près de nous, les nouveaux théoriciens de la croissance réduisent la pensée du grand économiste autrichien en la faisant entrer de force dans une description « cinématographique » inspirée de la théorie de l’équilibre où, en réalité, tout est donné d’un seul coup . Du côté de l’offre autant que de la demande, la neuroéconomie a de beaux jours devant elle. Parmi les précurseurs de cette discipline, il est juste de citer Herbert Simon, prix Nobel 1978, analyste et théoricien de la « rationalité limitée » et des « routines » dans le processus de prise de décisions au sein des organisations.
Ces considérations me ramènent irrésistiblement à Bergson. « D’où vient », se demande l’auteur de L’Évolution créatrice, « que tout n’est pas donné d’un seul coup, comme sur la bande du cinématographe ? Plus j’approfondis ce point, plus il m’apparaît que, si l’avenir est condamné à succéder au présent au lieu d’être à côté de lui, c’est qu’il n’est pas tout à fait déterminé au moment présent, et que, si le temps occupé par cette succession est autre chose qu’un nombre, s’il a, pour la conscience qui y est installée, une valeur et une réalité absolues, c’est qu’il s’y crée sans cesse, non pas sans doute dans tel ou tel système artificiellement isolé, comme dans un verre d’eau sucrée, mais dans le tout concret avec lequel ce système fait corps, de l’imprévisible et du nouveau. Cette durée peut n’être pas le fait de la matière même, mais celle de la Vie qui en remonte le cours : les deux mouvements n’en sont pas moins solidaires l’un de l’autre. La durée de l’univers ne doit donc faire qu’un avec la latitude de création qui y peut trouver place » . Un peu plus loin, l’auteur écrit ou plutôt s’écrie : « Le temps est invention ou il n’est rien du tout. » J’attire l’attention du lecteur sur le fait que la « latitude de création » dont parle Bergson n’est pas de même nature que le « résidu » des équations économétriques ou théoriques, dont on connaîtrait la valeur si l’on était informé de « l’état de la nature » au sens précis que la théorie des probabilités donne à ce terme. Du point de vue économique, on pense aussi à la célèbre distinction de Frank Knight entre risque (situations où les états de la nature sont connus a priori et forment éventuellement un espace probabilisable) et incertitude (impossibilité de définir a priori l’ensemble des états de la nature, et donc, a fortiori, de parler de probabilités même au sens subjectif) .
La citation de Bergson met en évidence la distinction fondamentale chez le célèbre philosophe entre le chronos des physiciens et une notion de la durée consubstantielle à l’idée de création. Ce n’est pas ici le lieu de digresser sur les perspectives vertigineuses ouvertes avec l’hypothèse d’une création continue dans la totalité de l’Univers, ou même sur le phénomène humain au sens teilhardien. Du point de vue infiniment plus modeste qui est le nôtre ici, l’analyse de Bergson paraît adéquate en ce qu’elle illumine la raison de l’incapacité de la « méthode cinématographique » à saisir l’essence de questions comme l’évolution économique ou le rôle de la monnaie, cet artefact inventé pour en canaliser le cours, comme le lit d’une rivière en canalise le courant. La notion de kairos, elle aussi issue de la philosophie grecque, est également fort éclairante pour notre discussion. Elle a été magistralement développée à notre époque par Evanghélos Moutsopoulos . Alors que le chronos peut s’identifier au temps des physiciens, isomorphe à l’ensemble des nombres réels, le kairos en est l’humanisation. Il est lié à l’intentionnalité d’une conscience, non pas au sens husserlien d’une appropriation utile de la réalité , mais au sens bergsonien de dessein, ce mot désignant un plan d’action adapté à un but précis de la conscience, en vue d’un résultat concret. Le kairos incorpore et synthétise l’idée de moment propice (entre le trop tôt et le trop tard), celle de pré-vision (le kairos comprend une part de voyance, sinon de providence, et en ce sens il jouxte le destin et embrasse une interprétation holistique – interdépendance cosmique – de la notion de hasard proche des traditions philosophiques orientales dont le Yi Jing est peut-être l’exemple le plus impressionnant), ou encore d’assimilation active ou passive d’une multitude de signes utiles, celle d’une « activité pettéique » comme dans le jeu d’échec, celle de « fruition », celle d’« acmé » (point culminant d’une trajectoire), enfin celle d’une intuition précédant la raison, ce en quoi on retrouve un thème central dans la pensée de Bergson et dans celle de Blondel. En tant que prise partielle d’une conscience sur l’univers, la kairicité ne saurait se réduire à une combinatoire de « robots » fabriqués avec les outils de la recherche opérationnelle ou de la théorie des jeux. La kairicité va au cœur du mystère de l’insertion de l’homme créateur dans un espace-temps qu’il modifie, non pas à la manière du « tenseur d’énergie-impulsion » qui déforme l’univers décrit par la théorie de la relativité générale, mais par une action décidée en toute liberté et dont la mise en œuvre enveloppe l’actualisation du temps perdu comme l’anticipation du temps à venir.
« Il est hors de doute », écrit Moutsopoulos, « que le kairos marque une discontinuité dans la continuité temporelle tout en assurant, en tant que fonction et que charnière, la liaison entre les deux parties entre lesquelles il la divise toutes les fois qu’il se manifeste. Or, s’il est question de moment opportun ou d’instant propice, on ne saurait en aucune manière le concevoir comme un seul point ou comme une simple ligne de démarcation, mais plutôt comme une zone décomposable, à son tour, en microkairoi particuliers qui jouent à l’intérieur du kairos global un rôle semblable à celui-ci à l’intérieur de la temporalité fractionnée. Il s’ensuit que la discontinuité créée par le kairos s’avère non pas un vide, mais un étirement de longueur variable, pour en faciliter et consolider graduellement l’insertion de la réalité » .
J’ai voulu introduire ici un bref commentaire de la notion de kairos, parce qu’elle enrichit la conception bergsonienne de la durée en tant que latitude de création et me paraît remarquablement adaptée au concept d’intuition stratégique, lequel est l’un des fils conducteurs de mon livre L’Action et le système du monde. Incidemment, la première édition de ce livre date de 2002, et ce fut pour moi un grand plaisir de découvrir l’ouvrage de William Duggan, professeur de management à la Columbia Business School, précisément intitulé Strategic Intuition, avec un heureux sous-titre : The Creative Spark in Human Achievement. Cet ouvrage, paru en 2007 , est bâti autour d’exemples bien documentés et son inspiration nous ramène aux perspectives de la neuroéconomie.
Je crois utile d’insérer ici quelques réflexions sur la manière dont la théorie économique appréhende la notion d’information. J’ai déjà fait allusion à la distinction essentielle et à mon sens bergsonienne de Frank Knight entre risque et incertitude. Les créateurs, en particulier les entrepreneurs de toute nature, se situent au moins partiellement dans l’ordre de l’incertitude. C’est un point sur lequel je reviens constamment dans l’Action et le système du monde. Mais l’incertitude pure affecte à des degrés divers la vie de tous les hommes. Chacun a sa part, fut-elle modeste, de création et de liberté. C’est pourquoi aucun raisonnement probabiliste ou statistique ne pourra jamais enfermer durablement les comportements humains même agrégés. Si l’analyse monétaire paraît tellement résistante à l’approche cinématographique dont parle Bergson, n’est ce pas justement parce que, à côté de ses effets statistiques au sens technique du terme, la frange résiduelle d’incertitude de la politique monétaire reste radicalement non négligeable et donc radicalement surprenante ? Pour la même raison, toute représentation de la croissance économique qui par exemple présente inventions et innovations comme une fonction donnée a priori (certaine ou aléatoire) des moyens investis dans la R&D, bien qu’utile et peut-être même indispensable pour préciser certaines intuitions, est néanmoins trompeuse si l’on n’y prend garde, puisque prise à la lettre elle s’inscrit dans la tradition philosophique du déterminisme historique. Des approches plus ouvertes (aucun système d’idées ne doit jamais être vécu comme étant clos) sont nécessaires pour comprendre et a fortiori pour anticiper des ruptures comme les réformes chinoises à partir de 1978, la réorientation indienne à partir de 1992, ou en sens inverse la cassure de la croissance japonaise à partir de 1990 et la crise systémique de 2008. Pour bien voir et prévoir, l’analyse scientifique doit être complétée par l’art tout synthétique et intuitif de l’interprétation de l’histoire et de la prospective.
Il ne s’agit pas, pour autant, de minimiser les apports de la théorie économique à l’analyse du risque au cours des dernières décennies, bien qu’ils reposent explicitement ou implicitement sur l’idée d’espaces probabilisables (et de probabilités subjectives), où les « états de la nature » sont par définition donnés à l’avance. Ainsi la méthode est-elle fort utile pour comprendre le phénomène de la « sélection adverse », analysé en 1970 par George Akerlof. Cet auteur prend l’exemple d’un marché de voitures d’occasion, où les acheteurs potentiels ne peuvent discerner les voitures en bon état de celles qui connaissent de fréquents incidents techniques. Akerlof montre qu’en raison de cette situation d’information asymétrique (ceux qui ont l’information ne veulent pas la divulguer), les acheteurs ont une faible disposition à payer, ce qui a pour effet de pousser hors du marché les offres de véhicules en bon état. À la limite, la défiance des acheteurs peut être telle qu’aucune transaction n’est possible. On trouve des situations analogues sur le marché du crédit avec les bons et les mauvais payeurs. Ce type de considérations conduit à des analyses fines dont l’utilité pratique est manifeste, en ce qu’elles peuvent aider à élaborer des stratégies. Tel est également le cas avec la notion de moral hazard, une expression difficile à traduire en français. Il s’agit typiquement du cas où une personne bien assurée devient moins vigilante face aux risques, ce qui a pour conséquence d’en accroître les probabilités. Les sociétés d’assurance doivent évidemment trouver des parades. La notion de moral hazard est également fondamentale sur le plan macroéconomique, et l’on en discute beaucoup depuis la crise asiatique de 1997. Sa prise en compte a certainement joué un rôle dans la décision du Trésor américain de ne pas s’opposer au dépôt de bilan de Lehman Brothers. Une question fondamentale pour les régulateurs est : par quels mécanismes peut-on inciter les établissements financiers à la prudence s’ils se croient assurés qu’en aucun cas on ne les laissera faire faillite ? Beaucoup moins convaincant, à mon avis, est le traitement de concept d’information dans la théorie financière des marchés efficients. En 1970 également, Eugene Fama a proposé une typologie qui s’est rapidement imposée, en distinguant trois formes d’efficacité selon que le marché connaît toute l’histoire des prix des actifs, l’ensemble de l’information disponible publiquement (l’histoire des prix, celle des taux d’intérêt, les statistiques publiques, les informations publiées par les entreprises, etc.), ou enfin toute l’information publique et privée – c’est-à-dire celle initialement à la disposition d’un nombre limité d’agents. « There should be no debate […] over whether the efficiency glass is half full or half empty ; it is simply quite full », écrivait avec enthousiasme Stephen Ross dans son livre de 2005 déjà cité . Deux ans avant la crise des subprimes et trois ans avant la crise systémique qui s’en est suivie, de brillants esprits pouvaient donc croire que les statistiques publiques ou privées étaient toujours fiables, qu’un Madoff pouvait offrir à ses clients des rendements mirifiques grâce à une meilleure compréhension de la sagesse des marchés, que les régulateurs ou encore les agences de notation avaient l’information sinon la science infuses. Rien d’étonnant à ce que tant de personnes plus ordinaires soient tombées dans le piège. En fin de compte, bien que les théories économiques de l’information construites sur le postulat de l’existence d’espaces probabilisables d’état de la nature soient souvent éclairantes, les généralisations auxquelles elles ont pu donner lieu ont facilité la propagation de dangereuses idéologies dont le monde paie le prix depuis 2007-2008. Il me semble que l’approche probabiliste de l’information a trop retenu l’attention des théoriciens de l’économie, au détriment d’une analyse méticuleuse des systèmes d’information tels que les appréhendent les spécialistes des technologies de l’information et de la communication (TIC). Les agents économiques ont toujours constitué, transmis et exploité des bases de données plus ou moins fiables, le plus souvent à la manière dont Monsieur Jourdain faisait de la prose. Avec le développement des TICs caractéristique des dernières décennies, l’économie de l’information a acquis une réalité tangible que l’on aurait intérêt à étudier concrètement un peu comme on procède en biologie moléculaire : qui envoie quels signaux et pourquoi, comment ces signaux sont-ils transmis, qui les reçoit et comment, quels effets engendrent-ils en termes d’action ou de nouveaux signaux, etc. Ainsi comprise, l’économie de l’information peut en principe appréhender les phénomènes probabilistes qui lui sont attachés de façon naturelle (phénomènes comparables à ceux que l’on rencontre en épidémiologie ou dans la propagation des rumeurs) mais elle laisse aussi un espace pour la création bergsonienne ou encore au kairos. S’il est d’ailleurs une branche de l’économie où spontanément on a toujours eu recours à cette démarche que j’appelle biologique, c’est évidemment l’économie monétaire dans laquelle se retrouvent, comme je l’ai déjà dit, tous les problèmes liés au temps. Ajoutons que l’approche ainsi préconisée permet de mettre la théorie de l’information à sa juste place, à savoir l’optimisation de la transmission de fichiers numériques par télécommunications .
Pour conclure ces réflexions sur la notion d’information, il me reste à évoquer l’un des plus vieux problèmes de la théorie économique, celui des rendements décroissants. J’ai déjà rappelé que le succès de la théorie de l’équilibre et de l’optimum repose largement sur une hypothèse dite de convexité, qui traduit mathématiquement l’idée de rendements décroissants. En termes très généraux, il s’agit de l’idée selon laquelle l’utilité marginale d’un bien diminue quand la quantité consommée augmente, et le coût marginal de la production d’un bien s’élève avec la quantité produite. Or les exemples contraires abondent, du moins dans la sphère productive à laquelle on se limitera ici. Dans son célèbre ouvrage La Richesse des nations, publié en 1776, Adam Smith observe déjà que la division du travail social – elle-même fonction de la taille du marché – et la spécialisation à laquelle cette division conduit se traduisent par des rendements croissants. La plupart des activités industrielles comportent des coûts fixes, d’où l’abaissement du coût moyen. Le progrès technique, grâce aux innovations et aux inventions, va également à l’encontre des rendements décroissants. Les connaissances se diffusent, c’est-à-dire que les découvertes des uns finissent par bénéficier – à la limite gratuitement – aux autres (externalités positives). En forçant le trait, certains vont jusqu’à qualifier les connaissances de « biens publics », ce qui est certes un peu caricatural, puisqu’il ne suffit pas que mon voisin soit un as, disons en informatique, pour que je le sois moi-même. D’où, évidemment, l’importance de l’éducation, mais aussi de la division du travail social que l’on retrouve par ce biais. Un exemple d’une nature différente est la découverte de gisements de pétrole, qui ne se fait pas nécessairement dans l’ordre des coûts croissants, en raison de sa nature aléatoire. Quand on réfléchit à ce problème de la convexité , on s’aperçoit d’abord que dans toutes les situations statiques, il est difficile d’échapper complètement à la loi des rendements décroissants. S’il est vrai que dans beaucoup de cas (typiquement, l’existence de coûts fixes) les rendements augmentent d’abord avec l’échelle de production, ils finissent toujours par se retourner. À la limite, la convexité fait effectivement bon ménage avec l’Idée platonicienne ou aristotélicienne sous-jacente au monde d’Arrow-Debreu. Fondamentalement différentes sont les situations où la durée bergsonienne – celle qui ne fait qu’un avec la latitude de création qui y peut trouver place – intervient. C’est bien le cas avec la division du travail social, laquelle résulte à chaque instant d’une évolution antérieure, avec toute sa part de création. Que l’on imagine la division du travail figée une fois pour toutes, et l’on retrouve les rendements décroissants. Le même raisonnement vaut, plus généralement, pour toutes les formes d’innovation et d’invention. Il apparaît ainsi clairement que les rendements décroissants dominent avec le blocage, réel ou conceptuel, du changement ; et les rendements croissants l’emportent lorsqu’on insère la question dans une durée non pas factice, à l’instar d’un temps conçu comme un simple paramètre, mais porteuse de création et donc d’irréversibilité.
Après cette longue parenthèse sur la notion d’information, revenons maintenant sur le plan de la gouvernance économique. Deux conclusions interdépendantes émergent des discussions qui précèdent. Premièrement, il est fondamental de se situer dans une perspective historique à long terme si l’on veut éviter l’éternelle répétition de crises financières et économiques plus ou moins graves. L’oubli des erreurs passées entraîne leur reproduction dans une suite sans fin. Deuxièmement, on ne doit pas prendre la science économique trop au sérieux, c’est-à-dire jusqu’au point de métamorphoser des modèles théoriques – souvent inspirés par une actualité trop proche et dont la nature même évacue l’homme dans sa capacité créatrice et dans sa liberté – en dogmes ou en idéologies, ce qui est manifestement une tentation pour certains scientifiques en mal de notoriété. Et d’ailleurs, les idéologies, elles aussi, se conforment à des schémas cycliques.
Au début de l’année 2010, deux forces sont clairement à l’œuvre, dans des directions opposées. D’une part, la perception prématurée que la crise est terminée peut avoir pour effet d’augmenter la résistance contre la mise en place de nouveaux mécanismes de gouvernance pourtant nécessaires, et par conséquent de précipiter un nouveau tremblement de terre financier de grande magnitude. D’autre part, la revanche d’un interventionnisme étatique indifférencié – au nom d’une interprétation idéologique d’un « keynésianisme » dont on proclame naïvement le retour – n’est pas un risque moindre. George Akerlof et Robert Schiller nous rappellent brillamment le phénomène des « esprits animaux » – encore une expression de Keynes – mais il serait déraisonnable de passer d’un extrême à l’autre et de proclamer que tous les marchés sont « irrationnels ». Aider à trouver un bon équilibre entre ces deux forces idéologiques pourrait être un objectif pour le G20. La tâche est importante, car rien n’est plus difficile que de déraciner une idéologie bien ancrée, en dehors d’un choc majeur et donc d’une sorte de révolution. C’est la raison pour laquelle, bien que ceux qui soulignent la responsabilité des autorités publiques (gouvernements et organisations internationales) dans la crise actuelle puissent avoir raison, il faut reconnaître que les autorités publiques sont elles aussi soumises aux idéologies dominantes. Greenspan n’était pas une exception. En démocratie, les gouvernements et même les banquiers centraux ont parfois peine à résister au vent quand il souffle trop fort.
J’en arrive maintenant succinctement à trois questions interdépendantes et dans l’ensemble très bien identifiées, liées à la politique économique, qui devraient être durablement au cœur des préoccupations du G20.
Premièrement, une stratégie de sortie doit impliquer, dans les principaux pays développés et émergents, des politiques à moyen et à long terme pour résorber l’excès de la liquidité et réduire les niveaux d’endettement encore amplifiés par la crise. Comme je le disais au début de mon exposé, les crises financières sont toujours liées à des problèmes d’endettement. Incidemment, si quelque chose manque dans les modèles macroéconomiques standards, c’est un traitement approprié de la dette, qui n’a jamais trouvé sa place dans « la synthèse néoclassique », probablement en raison de la nature fondamentalement complexe des dysfonctionnements que son augmentation provoque. En d’autres termes, la cause immédiate d’une crise de confiance est de même nature que celle d’un tremblement de terre ou d’un effondrement de terrain. Les réductions d’endettement doivent être crédibles et cependant graduelles afin d’éviter les effets déflationnistes. Certaines personnalités réputées comme Olivier Blanchard, le directeur des études économiques du Fonds monétaire international (FMI), vont jusqu’à recommander un relèvement significatif des objectifs d’inflation par les banques centrales. Ce faisant ils minimisent le risque d’un emballement des anticipations inflationnistes, dont les conséquences peuvent être désastreuses aussi bien en termes d’efficacité qu’en termes de répartition des revenus et de justice sociale.
Deuxièmement, il n’y a aucun doute que la persistance dans le temps d’un déséquilibre macroéconomique majeur, tel qu’au début du XXIe siècle le déficit de la balance des paiements américaine ou l’excédent chinois, n’est pas soutenable. En accumulant d’énormes quantités de dollars – au demeurant de plus en plus difficilement utilisables pour leurs détenteurs – afin d’éviter l’appréciation de leurs monnaies, les pays créanciers ont participé à l’augmentation massive de la liquidité et au maintien de taux d’intérêt artificiellement bas. Cela, avec les excès de l’innovation financière et de la titrisation, a fortement poussé vers le haut les courbes d’offre de crédits. Dans l’avenir, nous aurons besoin de politiques monétaires plus mesurées et d’interventions à la fois précoces et différenciées en vue de prévenir les bulles. Mais rien ne sera acquis sans correction des grands déséquilibres macroéconomiques. Cela implique notamment un accroissement des taux d’épargne aux États-Unis et de consommation en Chine. Bien qu’un certain nombre de signaux pointent dans cette direction, la volonté de coordination macroéconomique est clairement insuffisante actuellement.
Dans le même ordre d’idées, nous devons porter un nouveau regard sur le système monétaire international, c’est-à-dire d’une part sur la discipline des taux de change et les moyens de réduire leur volatilité, et d’autre part sur les moyens d’améliorer la gestion de la liquidité mondiale. En temps de troubles, il est de plus en plus difficile d’éviter le protectionnisme direct ou indirect (typiquement à travers des politiques industrielles), en l’absence de politiques monétaires et fiscales concertées, soutenues par un FMI impartial et donc gouverné de façon plus représentative.
Troisièmement, les règles visant à davantage de transparence et de surveillance multilatérale pour les gouvernements ou les acteurs financiers non étatiques doivent être renforcées, ainsi que celles concernant les ratios de capitaux propres et de liquidité. On pense aussi à la réduction de la pratique des transactions hors bilan, et à la révision des procédures comptables trop marquées dans le passé récent par « le mythe du marché rationnel » (les comptables parlent de la full fair market value). Suivant les conseils de l’ancien président de la Fed Paul Volcker, le président Obama voudrait réduire la taille et les activités des plus grandes banques américaines. La Maison-Blanche annonce que les banques commerciales qui reçoivent les dépôts des clients n’auront plus le droit d’investir en leur nom propre. Il affirme que l’administration posera des limites sur la taille et la concentration des institutions financières. Selon la règle de Volcker, les banques perdraient le droit de posséder ou de travailler avec des hedge funds ou des sociétés de private-equity. Ces propositions sont évidemment formulées à l’encontre des institutions réputées « trop grandes pour faire faillite ». Quoique bien intentionnées, elles apparaissent excessives et donc contreproductives dans la mesure où les conflits pour leur éventuelle mise en œuvre risquent de retarder d’autres mesures plus souhaitables et en tous cas plus urgentes.
En réfléchissant à ces questions d’un point de vue pratique, il devient clair qu’aucun progrès significatif ne peut être réalisé sans une coordination substantielle et sincère entre les principales économies mondiales. Cela soulève deux questions clés, l’une sur l’efficacité et l’autre sur la légitimité. L’efficacité implique une organisation interne rigoureuse pour le G20, un examen de la relation de ce club avec d’autres institutions comme le FMI ou la Banque mondiale, des procédures de suivi, etc. La légitimité implique la mise en place de bonnes méthodes pour prendre en compte les intérêts des pays n’appartenant pas au G20. Plus fondamentalement, comme tout autre club d’États ayant un rôle à jouer dans la gouvernance mondiale, le G20 ne pourra pas fonctionner correctement si ses membres ne partagent pas un même esprit coopératif et ne considèrent pas leur action collective comme un jeu à somme positive. Ce n’est pas le cas aujourd’hui. La meilleure façon de tester la volonté d’un club pour agir comme une véritable communauté serait d’élaborer d’une convention écrite précisant les droits, mais aussi les devoirs de ses membres. Les premiers pas du G20 furent prometteurs et aidèrent à contenir la panique ambiante, davantage cependant grâce à des réactions d’ordre psychologique et donc en rapport avec les animal spirits de Keynes, qu’en raison de politiques bien conçues et coordonnées. Pour consolider la crédibilité du G20 sur une base plus durable, nous avons besoin de plus que cela.
Je conclurai avec quelques réflexions sur la crise de la zone euro en début de l’année 2010, parce qu’elle illustre bien les relations entre science, idéologie et gouvernance. Cette crise obéit au schéma habituel, caractéristique des phénomènes complexes (au sens de la dynamique des systèmes), c’est-à-dire la dégénérescence prévisible d’une mauvaise situation, mais à une date imprévisible, sous l’effet de causes immédiates contingentes. En l’occurrence, on savait que les indicateurs de la Grèce étaient alarmants, on se doutait que les statistiques officielles étaient falsifiées, mais on n’y prêtait qu’une attention distraite. Jusqu’au jour où la crise de confiance a éclaté. Les crises de confiance ayant tendance à se propager sous l’effet du panurgisme, des pays comme l’Espagne ou le Portugal se sont retrouvés sur la sellette et, à terme, d’autres États, comme l’Italie voire comme la France pourraient souffrir. En d’autres termes, aucune régulation n’existant pour entraver la spéculation à grande échelle sur les monnaies, on peut théoriquement concevoir une réaction en chaîne dont la conséquence ultime serait l’éclatement de l’euro.
Cela fait longtemps que l’on connaît les critères de viabilité pour une « zone monétaire optimale » et il était clair, à la fin du siècle dernier, que ces critères n’étaient remplis par aucun sous-ensemble significatif de pays de l’Union européenne (UE), laquelle ne s’est toujours pas dotée d’institutions susceptibles de promouvoir une coordination appropriée des politiques économiques. Ces constatations ont conduit beaucoup d’économistes anglo-saxons, comme Martin Feldstein, à annoncer la mort rapide de l’euro avant même sa naissance. Le fait que la monnaie unique se soit bien comportée pendant ses dix premières années d’existence ne signifie pas nécessairement qu’ils étaient dans l’erreur, pas plus que n’avaient tort ceux qui disaient à Alan Greenspan pourquoi les déficits de la balance des paiements américaine étaient insoutenables ou encore pourquoi l’innovation financière débridée risquait de conduire à une catastrophe. En privant de l’instrument monétaire (en l’occurrence, la dévaluation) un pays qui a accumulé des déséquilibres, on le met dans une situation comparable à celle de la Grande-Bretagne au lendemain de la Première Guerre mondiale, lorsque Winston Churchill, alors chancelier de l’Échiquier, imposa le retour de la livre sterling à l’étalon-or à la parité d’avant guerre. Il en résulta une situation dramatique dont le rôle dans la marche vers la Grande Dépression est reconnu. Faudrait-il, alors, détricoter l’euro ?
Pareille conclusion ferait fi du « principe de l’engrenage », lequel est à la base de toute l’entreprise communautaire. Contre toute logique apparente, depuis 1957, la construction européenne s’est faite en mettant la charrue devant les bœufs, créant ainsi l’obligation d’une intégration renforcée par un partage toujours plus exigeant des souverainetés. On ne comprend rien à l’Union européenne si l’on ne voit que l’enjeu est de bâtir un nouveau type d’unité politique, en quelque sorte une modalité nouvelle et originale de fédération, ayant vocation à devenir beaucoup plus qu’une simple association : une véritable communauté. En ne voyant dans l’UE qu’une institution internationale parmi d’autres et comparable, typiquement, à l’OTAN, on se condamne à mal interpréter des événements comme la crise du début 2010. À moins que l’UE elle-même ne se délite politiquement, ce qui n’est pas l’hypothèse la plus probable, le marchandage consistant à aider la Grèce en échange de mesures d’assainissement drastiques devrait aboutir. Il est important pour la crédibilité de la construction européenne d’éviter de recourir à l’assistance du FMI. Au-delà, l’idée de renforcer la gouvernance économique de la zone euro – mieux vaudrait dire de la mettre en place – a toutes les chances de progresser, tant il est vrai qu’une telle gouvernance est nécessaire, et qu’avant de se trouver comme aujourd’hui au pied du mur, la plupart des États membres avaient renâclé devant ce pas supplémentaire vers le partage de la souveraineté. Il est possible que cela implique de nouvelles institutions (un Fonds monétaire européen ?) ainsi qu’un nouveau pacte, incluant une dimension sociale et un certain degré d’harmonisation fiscale, comme le propose l’ancien commissaire européen Mario Monti.
Cette brève discussion n’a pour but que de montrer en quel sens le politique précède l’économique, ou encore pourquoi l’économie est nécessairement politique. Elle suggère aussi que la mondialisation ne saurait se poursuivre aveuglément, sans un développement parallèle de modes de gouvernance suffisamment efficaces et légitimes. Le pire des scénarios serait que l’impossibilité de progresser de manière harmonieuse ne provoque une nouvelle accumulation de déséquilibres se transformant progressivement en une poudrière que n’importe quelle étincelle pourrait faire exploser à un moment inattendu.
Il est permis de spéculer sur une Union européenne volant de succès à succès et étendant graduellement ses engrenages à la planète tout entière, avec au bout de la route la réalisation du rêve de la paix et de la prospérité perpétuelles assurées, non par un gouvernement, mais par une gouvernance mondiale, à la fois efficace et légitime sur toute la planète. Le monde disposerait d’une monnaie unique. Il n’y aurait plus besoin d’armées mais de forces de police, certes adaptées et suffisamment consistantes. Ainsi unifiée, la communauté internationale, qui mériterait enfin son nom, pourrait mieux faire face aux catastrophes naturelles ou aux épidémies. Davantage protégés contre les grands risques collectifs, les individus pourraient mieux se consacrer à leur épanouissement intérieur.
Ce rêve n’est pas plus aberrant que ne l’était le projet européen au lendemain de la Seconde Guerre mondiale. Pour avoir une chance de le transformer en réalité dans les deux prochains siècles, il faut le considérer sérieusement dès aujourd’hui, et commencer sans tarder à en tirer les conséquences en termes de gouvernance économique autant que politique. Y a-t-il plus noble tâche pour les penseurs de l’action ?

La pensée et l'action