La prévision : sciences de la nature – technologie – sciences morales et politiques

Communication à l’Académie des sciences morales et politiques, le 16 juin 2014

La réflexion sur la notion de « prévoir » s’impose en raison de malentendus dont la racine commune est la naïveté qui caractérise la plupart des discours sur l’avenir. On l’a bien vu, typiquement, à la suite des événements de l’hiver 2010-2011, curieusement qualifiés de « printemps arabe », qui – à partir d’un incident quelque part en Tunisie – ont provoqué la chute de Ben Ali puis celle de Hosni Moubarak en Égypte, et mis en mouvement d’autres forces, comme en Libye ou en Syrie. Que n’a-t-on entendu, alors, sur « l’incompétence des diplomates » ou sur la cécité des prévisionnistes ! Ces polémiques ont l’intérêt de faire ressortir la nécessité d’une réflexion comme celle qui fait l’objet de la présente étude.
J’aborderai le sujet très en amont, en invoquant les quatre préceptes de la méthode selon Descartes, et surtout le texte de Pascal sur l’esprit de géométrie et l’esprit de finesse. En les relisant, gardons en tête que ces deux grands esprits furent à la fois des mathématiciens et des philosophes géniaux.
Commençons par les préceptes (Descartes en parle comme d’une découverte antérieure, donc à l’imparfait) : « Le premier était de ne recevoir jamais aucune chose pour vraie que je ne la connusse évidemment être telle ; c’est-à-dire d’éviter soigneusement la précipitation et la prévention [les préjugés], et de ne comprendre rien de plus en mes jugements que ce qui se présenterait si clairement et si distinctement à mon esprit que je n’eusse aucune occasion de le mettre en doute.
Le second, de diviser chacune des difficultés que j’examinerais en autant de parcelles qu’il se pourrait et qu’il serait requis pour les mieux résoudre.
Le troisième, de conduire par ordre mes pensées, en commençant par les objets les plus simples et les plus aisés à connaître, pour monter peu à peu comme par degrés jusqu’à la connaissance des plus composés, et supposant même de l’ordre entre ceux qui ne se précèdent point naturellement les uns les autres.
Et le dernier, de faire partout des dénombrements si entiers et des revues si générales, que je fusse assuré de ne rien omettre. »
Les préceptes de Descartes caractérisent « l’esprit de géométrie », qui triomphe effectivement en mathématiques (bien au-delà de ce que l’on appelle aujourd’hui la géométrie) et dans les sciences de la nature.
Passons maintenant la parole à Pascal : « Ce qui fait donc que de certains esprits fins ne sont pas géomètres, c’est qu’ils ne peuvent du tout se tourner vers les principes de géométrie [cf. les préceptes de Descartes] ; mais ce qui fait que des géomètres ne sont pas fins, c’est qu’ils ne voient pas ce qui est devant eux, et qu’étant accoutumés aux principes nets et grossiers de géométrie, et à ne raisonner qu’après avoir bien vu et manié leurs principes, ils se perdent dans les choses de la finesse, où les principes ne se laissent pas ainsi manier. On les voit à peine, on les sent plutôt qu’on ne les voie ; on a des peines infinies à les faire sentir à ceux qui ne les sentent pas d’eux-mêmes : ce sont choses tellement délicates et si nombreuses, qu’il faut un sens bien délicat et bien net pour les sentir, et juger droit et juste selon ce sentiment, sans pouvoir le plus souvent les démontrer par ordre comme en géométrie, parce qu’on n’en possède pas ainsi les principes, et que ce serait une chose infinie de l’entreprendre. Il faut tout d’un coup voir la chose d’un seul regard, et non pas par progrès de raisonnement, au moins jusqu’à un certain degré. Et ainsi il est rare que les géomètres soient fins et que les fins soient géomètres, à cause que les géomètres veulent traiter géométriquement les choses fines, et se rendent ridicules, voulant commencer par les définitions et ensuite par les principes, ce qui n’est pas la manière d’agir en cette sorte de raisonnement. Ce n’est pas que l’esprit ne le fasse ; mais il le fait tacitement, naturellement et sans art [sans se plier à des règles], car l’expression en passe [dépasse] les moyens de tous les hommes, et le sentiment n’en appartient qu’à peu d’hommes.
Et les esprits fins, au contraire, ayant ainsi accoutumé à juger d’une seule vue, sont si étonnés – quand on leur présente des propositions où ils ne comprennent rien, et où pour entrer il faut passer par des définitions et des principes si stériles, qu’ils n’ont point accoutumé de voir ainsi en détail – qu’ils s’en rebutent et s’en dégoûtent. »
Pascal poursuit : « les esprits faux ne sont jamais ni fins ni géomètres », c’est-à-dire qu’ils se perdent dans la logique autant qu’ils ne voient rien. Ainsi, d’ailleurs, peut-on définir l’esprit faux. Et s’« il est rare que les géomètres soient fins et que les fins soient géomètres », cela arrive – l’auteur de l’Essai sur les coniques (à 16 ans !) et des Pensées, cet « effrayant génie », disait Chateaubriand, en est un prodigieux exemple – et les heureux esprits ainsi coiffés de la double casquette peuvent être qualifiés de « justes ». Dans les meilleurs des cas, on peut même dire qu’ils sont « sages ».
J’ajouterai que l’expérience des plus grands découvreurs scientifiques montre que l’intuition précède généralement la raison, laquelle joue plutôt le rôle de vérificateur . En ce sens nul ne peut être un grand géomètre s’il ne possède une certaine finesse, c’est-à-dire une vision exceptionnelle au moins dans certaines directions. Tout cela étant dit, il arrive aux plus grands géomètres de commettre des erreurs de raisonnement, et même les plus fins d’entre les fins n’ont pas constamment la vue parfaite dans toutes les directions. Autrement dit, les esprits les plus justes peuvent se tromper quelquefois.
Dans la vie « mondaine », que méprisait Pascal, les fins sont à l’évidence mieux placés pour réussir que les géomètres et, s’ils pratiquent en maîtres la voie « basse, indigne et étrangère » de « l’art d’agréer », cela donne des personnages comme son contemporain Mazarin, ou plus tard Talleyrand ou Mitterrand. L’art d’agréer, c’est celui de plaire et de convaincre, fort éloigné de la démonstration . Or, nul ne peut prétendre gouverner des hommes s’il ne possède cet art. Plus d’un siècle avant Pascal, Érasme écrivait, dans l’Éloge de la folie : « Admire qui voudra cette belle sentence de Platon : “Les républiques seraient heureuses si les philosophes gouvernaient, ou si ceux qui gouvernent philosophaient.“ Fausse idée. Consultez l’Histoire, elle vous apprendra que les plus grands malheurs qui puissent arriver à un empire, c’est de tomber entre les mains d’un de ces pédants, d’un homme enterré dans les livres. » Et l’on trouve, sous la plume de Napoléon, un jugement piquant sur Pierre-Simon de Laplace, un des plus grands mathématiciens de son temps. L’empereur fait implicitement référence à Pascal : « À l’Intérieur, le ministre Quinette fut remplacé par Laplace, géomètre de premier rang, mais qui ne tarda pas à se montrer administrateur plus que médiocre, dès son premier travail. Laplace ne saisissait aucune question sous son vrai point de vue : il cherchait des subtilités partout, n’avait que des idées problématiques, et portait enfin l’esprit des infiniment petits dans l’administration. » On pense à ce chapitre du Testament politique du cardinal Richelieu, intitulé : « Qui fait connaître qu’un des plus grands avantages qu’on puisse procurer à un État est de destiner un chacun à l’emploi auquel il est propre. » Il y a là, en réalité, un principe universel de management, dont la mise en œuvre requiert autant de finesse que de géométrie.
J’en viens maintenant à la thèse que je développerai dans la suite : l’analyse et la prévision, prises comme un tout, est un art dont la pratique suppose toujours une combinaison d’esprit de géométrie et d’esprit de finesse, dans des proportions variables en fonction de la nature du problème traité. Je suppose qu’il a fallu des deux à ceux de nos ancêtres qui ont identifié nettement les régularités comme la succession des jours et des nuits, leur inégalité en fonction des saisons, les rapports entre climat, saison, faune et flore, les vertus médicinales ou au contraire le danger de certaines plantes, etc.
Avec la révolution scientifique, le regard des observateurs a dû se faire plus acéré, entraînant une montée en importance de l’esprit de géométrie, même si un homme comme Kepler (1571-1630) était astrologue plus encore qu’astronome. Les trois lois, remarquables de précision géométrique, auxquelles son nom reste attaché, ont été formulées comme des faits d’expérience, établis à partir de ce que l’on appelle aujourd’hui une base de données, comme les astrologues et les astronomes en ont constituée depuis les temps les plus reculés : (1) les planètes (du système solaire) décrivent des ellipses dont le Soleil occupe un foyer ; (2) le rayon vecteur qui joint le Soleil à la planète balaie des aires égales en des temps égaux ; (3) les carrés des temps mis par les planètes à parcourir leur orbite sont proportionnels aux cubes des grands axes de ces orbites.
Quelques décennies plus tard, dans son ouvrage Des principes mathématiques de la philosophie naturelle, Isaac Newton, un titan dans l’ordre de l’esprit de géométrie, énonça la loi de la gravitation universelle : « Deux corps quelconques s’attirent par des forces directement opposées, proportionnelles à leurs masses, et inversement proportionnelles au carré de leur distance. » Cette loi permet de démontrer les lois de Kepler et de prévoir (au sens le plus fort de ce terme) d’innombrables phénomènes précédemment inenvisagés, comme les orbites paraboliques ou hyperboliques de certaines comètes. Tel est le point de départ de la mécanique céleste. Une démarche proprement cartésienne permet ainsi d’aboutir à des prévisions époustouflantes. Pour autant, ces prévisions ne sont pas parfaites. Les lois de Kepler (et leurs généralisations aux autres orbites) ne sont exactes que dans le cas de l’attraction mutuelle de deux corps (le Soleil et la Terre par exemple), en les supposant rigoureusement seuls dans le vide . Or, à s’en tenir au seul système solaire, c’est-à-dire en ignorant le reste de notre Galaxie ou a fortiori les autres galaxies, il y a plusieurs planètes qui s’attirent mutuellement, et certaines ont un ou plusieurs satellites (la Lune dans le cas de la Terre). Le triomphe de la mécanique céleste, entre les mains de génies comme Pierre-Simon de Laplace déjà cité, a été d’introduire des méthodes mathématiques permettant de calculer les « perturbations » apportées par ces interactions accessoires.
Grâce à ces méthodes (et de nos jours à la puissance de calcul des ordinateurs), on peut prévoir avec une remarquable précision, des centaines d’années à l’avance, les trajectoires des planètes, les phénomènes comme les éclipses, etc. Mieux encore, l’étude attentive des anomalies dans les perturbations du mouvement de la planète Uranus (découverte par Herschel en 1781) a conduit l’astronome français Le Verrier à prévoir l’existence de Neptune, effectivement confirmée en 1846. On remarquera que, dans ce qui précède, nous avons utilisé le concept de prévision tantôt dans un sens faible (par exemple, date des éclipses), tantôt dans un autre beaucoup plus fort (trajectoires hyperboliques des comètes, découverte d’une nouvelle planète). Du point de vue qui nous intéresse ici, le premier est manifestement le plus important. Mais le second est fascinant, et établit un pont entre pré-vision et découverte.
Pour autant, même en mécanique céleste, il existe des limites à la capacité de prévoir. À la fin du XIXe siècle, Henri Poincaré a démontré que le problème des trois corps (par exemple, le Soleil, la Terre et la Lune) était structurellement instable . En termes simples, une modification infime des coordonnées planétaires (positions, vitesses) à une date quelconque est susceptible d’entraîner, à une date ultérieure incalculable à l’avance (puisque tout calcul est approché, c’est-à-dire équivalent à une petite modification des données), une véritable bifurcation de trajectoires, dont la morphologie peut brusquement devenir radicalement différente. Telle est l’origine de la théorie du chaos, dont la raison profonde est la non-linéarité des phénomènes, c’est-à-dire la non-proportionnalité des causes et des effets . Nous pouvons être rassurés sur le devenir du système solaire à l’horizon de quelques millénaires, mais pas à l’échelle des millions d’années, très inférieure pourtant à l’espérance de vie du Soleil. Parmi les phénomènes courants marqués par les non-linéarités, je citerai les mouvements atmosphériques. Il est par exemple encore impossible de prévoir des incidents comme certaines tornades locales très violentes, alors même que l’on est capable d’écrire rigoureusement les équations de la mécanique des fluides. C’est d’ailleurs un météorologue, Edward Lorenz, qui a popularisé l’idée de chaos (1963) avec la métaphore de « l’effet papillon » (1972). À mesure que s’approfondissait l’étude du chaos, une nouvelle discipline s’est constituée, sous le nom de complexité . La non-linéarité, les bifurcations brusques et imprévisibles, le chaos en constituent l’essence. Bien qu’il soit sage de ne manier les analogies qu’avec prudence, je soulignerai dès maintenant que la plupart des interactions à l’intérieur des sociétés humaines doivent être considérées comme complexes, et l’on comprend intuitivement pourquoi nous nous trouvons si souvent surpris par des bifurcations dont on pouvait à la rigueur imaginer la possibilité, mais qu’il était radicalement vain de chercher à dater. Et en effet comment pourrait-on espérer faire mieux pour anticiper le moment d’une révolution que pour prévoir le jour et l’heure du prochain tremblement de terre majeur à Tokyo, ou de la prochaine tornade dans une certaine commune de la Belgique ? Remarquons cependant que la tragédie du chaos est atténuée dans certaines classes de phénomènes par les mécanismes de rétroaction (ou de défense, comme on dit en biologie) et, le cas échéant, la possibilité d’exercer des actions dites de contrôle. La théorie du contrôle est une discipline mathématique qui est née et s’est considérablement développée au XXe siècle. Ses applications sont multiples. Pour rester dans l’ordre de la mécanique céleste, je citerai la navigation spatiale. Toujours par analogie, on peut interpréter le problème général de la gouvernance des sociétés humaines comme un problème de contrôle.
Après cette brève discussion de la non-linéarité, je citerai encore plus succinctement une autre cause tout aussi essentielle de limitation à la capacité de prévoir. Du point de vue de l’esprit de géométrie, toute prévision est en effet attachée à une théorie . Nous venons de mentionner l’immense succès de la mécanique céleste fondée sur la théorie newtonienne de la gravitation, et l’on comprend que certains penseurs, parmi les plus éminents, aient pu se laisser griser par d’aussi admirables prouesses. Avec les lois établissant l’identité de l’électromagnétisme et de la lumière, synthétisées en 1864 par James C. Maxwell dans les quatre équations d’une esthétique sublime, qui portent son nom, on avait pu croire le temple de la physique achevé . Mais la science est une tour de Babel. Le sommet n’en est jamais atteint et l’orgueil qu’elle suscite est passible de punition. L’histoire de la théorie de la relativité et celle de la mécanique quantique illustreront ces deux aspects. À la fin du XIXe siècle, la découverte de phénomènes optiques contredisant les théories établies mit des savants comme H.A. Lorentz (à ne pas confondre avec le météorologue précédemment mentionné) et Henri Poincaré sur un chemin dont l’aboutissement fut l’audacieuse formulation par Albert Einstein, en 1905, de la théorie de la relativité restreinte. Celle-ci bouleverse les conceptions précédemment admises comme naturelles de l’espace et du temps, et introduit le principe révolutionnaire de l’équivalence de la masse et de l’énergie (la fameuse équation E = mc2). Une des conséquences inattendues de cette révolution fut de réconcilier les échelles de temps des physiciens et celle des naturalistes, devenus radicalement incompatibles depuis Darwin. Il est remarquable, du point de vue épistémologique, que le point de départ d’Einstein ait cité une analyse purement formelle de conditions a priori que devaient satisfaire les équations de Maxwell, conditions qui paraissaient incompatibles avec l’héritage de Newton. Du point de vue de la capacité de prévoir, qui est notre sujet, la relativité restreinte permit à la physique nucléaire de prendre son essor. Sur le plan technologique, elle conduisit notamment à la bombe atomique et aux prémisses de « l’arme absolue » dans laquelle d’aucuns pourraient voir comme le châtiment de Dieu face à l’hubris de l’homme désormais réellement devenu apprenti-sorcier. Mais ceci est une autre histoire.
Pour Einstein, le travail de 1905 ne fut que le point de départ – à partir cette fois d’une analyse extrêmement subtile de la gravitation – d’un réexamen encore beaucoup plus fondamental des conceptions de l’espace et du temps, dont l’aboutissement fantastique, en 1917, fut la théorie de la relativité générale. Celui-ci conduit à se représenter l’espace-temps comme un bloc à quatre dimensions courbé par l’énergie-matière. La notion de temps, déjà chahutée dans la relativité restreinte, s’éloigne encore un peu plus des données immédiates de la conscience. Subsiste cependant la notion de temps propre attachée à un objet, à condition de pouvoir en définir l’identité en dehors du bloc d’espace-temps. Dans ce cadre superbe mais peu accessible au non-mathématicien, la loi de Newton sur la gravitation, dont la formulation est au contraire si simple, garde sa validité, mais seulement approximativement. Il n’est guère surprenant que les premières validations de la relativité générale soient venues de la mécanique céleste. Une anomalie dans le mouvement du périhélie de Mercure (point de son orbite où sa distance au Soleil est la plus courte) avait conduit les astronomes à rechercher une planète infra-mercurielle, selon la démarche de Le Verrier. Mais, cette fois, les recherches avaient été vaines. Le premier triomphe de la nouvelle théorie fut l’explication de l’anomalie de Mercure. On voit donc bien comment la science, en progressant, permet d’affiner les prévisions, en les rendant toujours plus précises, mais cependant jamais parfaites. On pourrait aussi illustrer cette vérité générale en racontant l’histoire, encore plus surprenante sur le plan intellectuel, de la mécanique quantique, l’autre pilier de « l’âge d’or de la physique théorique », dans le premier XXe siècle , avant sa fascinante moisson de prévisions justes (par exemple celle, par Paul Dirac, de l’existence de l’électron positif). Qu’il nous suffise ici d’avoir montré comment, poussé aux extrémités du génie, l’esprit de géométrie, guidé par un rayon d’esprit de finesse, c’est-à-dire d’intuition concentrée, conduit à une capacité d’analyse et de prévision des phénomènes naturels, si bouleversante que l’on peut, au moins par des intermittences de l’esprit, être tenté de se distancier du pessimisme pascalien et de s’émerveiller de la « grandeur de l’Homme » plus que de verser des larmes sur sa « misère ».
Je ne m’attarderai pas trop sur la question de l’analyse et de la prévision dans le domaine de la technologie, dont j’ai traité ailleurs . Schématiquement, l’ingénieur doit concevoir et réaliser un système répondant à certaines spécifications, définies dans un cahier des charges. L’automobile, l’avion, la centrale nucléaire, l’usine chimique, devra avoir telle ou telle caractéristique. Pour accomplir sa mission, ses ressources de base consistant en un stock de connaissances, ainsi qu’en des collections de briques de technologie directement utilisables. Il doit à la fois analyser tous les aspects du système et acquérir une vision d’ensemble de son fonctionnement et de son contrôle. La réalisation de l’ouvrage passe par l’élaboration d’un modèle, qu’il faut valider et tester. La première opération consiste à s’assurer que, pour toutes les circonstances connues, les valeurs des « variations endogènes » (caractéristiques de l’état du système), calculées à partir des « variables exogènes » (caractéristiques des influences extérieures), sont suffisamment proches des valeurs observées. Cet exercice, à la fois intuitif et empirique, s’effectue en modifiant les paramètres, après avoir cherché à localiser les raisons des écarts observés. Au bout du compte, valeurs calculées et observées doivent pratiquement coïncider. En principe, du moins à l’intérieur d’un certain champ pour les variables exogènes, il est alors possible, en toutes circonstances, de prédire exactement les variations des variables endogènes. Il faut bien comprendre les limites de validité du modèle, essayer d’identifier toutes les formes d’incidents ou d’accidents. En quelques mots, voilà comment les voitures roulent, les avions volent, les centrales nucléaires produisent de l’électricité, ou encore les robots arrivent sur la planète Mars et y font le travail prévu, tout cela avec un haut degré de fiabilité, et malgré tout sans sécurité absolue.
On ajoutera deux observations. La première est que les systèmes techniques sont conçus pour opérer dans un cadre strictement déterminé et, quelles que soient les précautions prises, des accidents peuvent se produire, qui souvent s’analysent a posteriori comme des « erreurs de prévision ». Dans la mesure où un système accidenté n’est pas le seul de son espèce, toute défaillance doit faire l’objet d’un examen approfondi pour réduire le risque de sa reproduction (typiquement, catastrophes aériennes, incidents sur les centrales nucléaires). La prévision parfaite en technologie est une utopie, d’où l’inanité des interprétations extrêmes du « principe de précaution ». La deuxième observation est relative à l’aspect humain du travail de l’ingénieur. En règle générale, les ouvrages sont conçus et réalisés par des équipes, ce qui met en jeu tous les ressorts des relations humaines. Au fil du temps, les écoles de management ont mis au point des méthodes de gestion de projets reposant sur une compréhension approfondie des comportements individuels ou collectifs. Dans une moindre mesure, il en va de même pour la conduite des systèmes techniques devenus opérationnels. En conséquence, l’origine des incidents ou accidents est fréquemment humaine plutôt que technique, ou alors mixte (catastrophe de Tchernobyl en 1986, et sans doute celle de Fukushima en mars 2011). On voit donc, et ce sera ma conclusion pour ce petit développement sur l’analyse et la prévision en technologie, que dans les rapports entre esprit de géométrie et esprit de finesse, la balance est ici moins déséquilibrée en faveur du premier que dans le cas de la science. Il en est ainsi pour deux raisons. D’une part, la conception et la réalisation d’un ouvrage sont toujours un art où il faut de l’expérience et de l’intuition, avec un éventail déjà assez ouvert. D’autre part, de même que la plongée du technologue dans la nature est scientifiquement plus large que profonde, de même en va-t-il sur le plan humain, en raison de l’aspect entrepreneurial. Un chef de projet n’est pas seulement une miniature de démiurge, il doit aussi faire circuler l’énergie au sein de son orchestre.
Abordons maintenant la question du hasard. À la fin du XIXe siècle, Augustin Cournot en a donné une définition fort simple, comme la rencontre entre deux ou plusieurs séries causales indépendantes. Je quitte un matin mon domicile pour me rendre à pied chez le marchand de journaux. Sur ma route une tuile se détache fortuitement d’un toit, tombe sur ma tête et me blesse grièvement. Me voilà (ou voilà Cyrano de Bergerac…) victime du hasard. Je serais parti une minute plus tôt ou plus tard, un oiseau n’aurait pas marché malencontreusement sur la tuile voisine à ce moment-là, le vent aurait soufflé un peu plus ou un peu moins, et tout au plus aurais-je pu penser que j’étais passé à côté d’un danger. Cet exemple suscite deux remarques immédiates. D’abord certains appellent destin ce que Cournot nomme hasard. Les philosophies orientales, à commencer par le Yi-King, soulignent l’interdépendance universelle. En conséquence, le hasard pur n’existe pas, sans que l’on puisse pour autant parler de déterminisme, au sens moderne. Et Pascal lui-même a cette pensée : « Donc toutes choses étant causées et causantes, aidées et aidantes, médiates et immédiates, et toutes s’entretenant par un lien naturel et insensible qui lie les plus éloignées et les plus différentes, je tiens impossible de connaître les parties sans connaître le tout, non plus que de connaître le tout sans connaître particulièrement les parties. » Si l’on pousse ce point de vue à l’extrême, je devais être victime de cette tuile et, inversement, si j’échappe de peu à un accident, je dois y voir un signe à interpréter. Ce genre de raisonnement vaut aussi pour certains événements heureux. On pense à la notion grecque de kairos, de moment propice. Mais au niveau de notre étude, et malgré le fait que Pascal est l’un des fondateurs du calcul des probabilités, la spiritualité et la science ne font pas bon ménage. Restons en donc à Cournot, et observons l’analogie avec la non-linéarité évoquée précédemment : ici comme alors le plus petit changement des « conditions initiales » est susceptible de provoquer un changement radical des « trajectoires ». C’est bien ce que révèle, dans beaucoup de cas, l’autopsie des accidents. Cela dit, dans notre histoire initiale, à s’en tenir à cette manière de la raconter, c’est-à-dire sans construire un modèle plausible où elle trouve sa place, nul ne saurait parler de la « probabilité » de l’occurrence d’un tel accident. Ou plutôt, on serait subjectivement enclin à affirmer qu’a priori cette probabilité était à peu près nulle. Prenons maintenant un autre exemple . Cette fois, j’ai devant moi une série de lignes que je devrais franchir. Je sais que chacune de ces lignes est minée sur les deux tiers de sa longueur, avec une répartition des mines qui peut varier d’une ligne à l’autre et qu’en tous cas j’ignore. L’esprit tend naturellement à construire un modèle et à dire que j’ai une chance sur trois de franchir sans explosion la première, une sur neuf (un tiers multiplié par un tiers, c’est-à-dire un tiers au carré) de franchir la seconde, une sur vingt-sept (un tiers au cube) la troisième et ainsi de suite. J’ai moins d’une chance sur sept cents de rester sauf après la sixième ligne, etc. À partir de ces chiffres, je peux confronter l’enjeu et le risque de franchissement et dire par exemple quel « prix » je serais prêt à payer pour être dispensé d’engager la traversée. La sensibilité par rapport aux conditions initiales – ici mon trajet exact à partir de mon point de départ – est aussi réelle que précédemment. La différence, que nous pouvons sentir intuitivement, est qu’ici nous avons un modèle probabiliste implicite, de même que lorsque nous disons, en tirant à pile ou face, que chacune des deux issues a une probabilité égale à un demi, ou en lançant un dé que l’apparition d’une face marquée à l’avance à une probabilité d’un sixième, en lançant simultanément deux dés que la probabilité d’occurrence de deux faces pré-identifiées est un trente-sixième, etc. Ainsi pouvons-nous toucher du doigt ce que l’on a longtemps appelé le « calcul des probabilités », et qui mérite l’appellation de « théorie des probabilités » depuis qu’un mathématicien russe, A.N. Kolmogorov, lui a donné ses lettres de noblesse et ouvert toutes ses potentialités en 1933 . Si par exemple on voulait donner au premier exemple ci-dessus (Cyrano) un cadre probabiliste, il faudrait analyser en détail mes habitudes du matin (heures de sortie, itinéraires…), les régularités affectant la chute des tuiles, etc.
D’une manière générale, nous ne cessons d’être exposés à des risques intuitivement perçus comme peu vraisemblables, et nous préférons ne pas nous en préoccuper pour ne pas vivre dans une angoisse permanente. Montaigne, après Shakespeare dans Jules César, a écrit de belles choses sur le fait que la peur de mourir revient à ne cesser de mourir avant que de mourir. Mais s’il s’agit de prendre une décision sur la sûreté ou la sécurité d’une centrale nucléaire ou d’une ligne de TGV, on conçoit que la situation soit très différente. Dans des cas de ce genre, les modèles de l’ingénieur, faute de pouvoir identifier toutes les circonstances imaginables dans les détails les plus fins, doivent intégrer des schémas probabilistes afin d’aboutir à des conclusions opérationnelles du genre : tel type d’accident a moins d’une chance sur mille de se produire. Remarquons que, dans une certaine mesure, le raisonnement probabiliste se substitue au déficit de finesse, au sens pascalien du terme. Faute d’avoir une vision tout à fait nette du champ des possibles, on raisonne, avec le secours de l’esprit de géométrie, sur des schémas certes grossiers, mais qui pourtant réduisent le degré d’ignorance.
Quand il s’agit d’utiliser le calcul des probabilités, il convient toutefois de garder l’œil ouvert. Que vaut l’affirmation que la probabilité qu’un aéronef s’écrase sur une centrale nucléaire est inférieure, disons, à un cent millième (je me hâte de préciser que ce chiffre est en l’occurrence totalement arbitraire), si le modèle qui y a conduit n’a pas inclus l’hypothèse d’attaques kamikazes, dans un contexte politico-sécuritaire où pareille perspective apparaîtrait plausible ? Les « décideurs » et leurs conseillers doivent donc rester aux aguets, face à des bâtisseurs de modèles souvent enfermés dans l’esprit de géométrie, et rester disponibles vis-à-vis d’esprits plus fins qui pourraient avoir, en raison de leurs facultés de discernement, des vues plus aiguës sur la vraisemblance de tel ou tel événement inattendu. Le calcul des probabilités a rencontré de grands succès en recherche opérationnelle – un think tank comme la Rand Corporation en a toujours fait grand usage – pour des problèmes comme typiquement l’optimisation des tactiques liées à l’emploi de diverses catégories d’armement (aviation, etc.), ou encore l’analyse des pourcentages de pièces défaillantes dans une production de masse ; mais, dans ces domaines comme dans d’autres, rien n’est plus dangereux que la mystique des chiffres. Les probabilités relativisent la notion de prévision, et doivent elles-mêmes être relativisées.
Il est remarquable qu’à l’origine, le calcul des probabilités doive davantage à l’analyse de problèmes de décision (situations de jeux, fiabilité des témoignages, etc.) qu’aux sciences de la nature . De nos jours encore, il est un outil privilégié dans les sciences sociales, directement ou par l’intermédiaire de la statistique mathématique qui en dérive. Parfois, de façon fort sophistiquée, comme en finance, avec le risque que l’esprit de géométrie n’écrase l’esprit de finesse et ne s’égare. Parfois de façon frustre, comme dans les sondages. On pense typiquement aux opérations qui sont supposées permettre, avec une « faible probabilité » de se tromper (on dit aussi : avec un bon intervalle de confiance), de prévoir plus ou moins à l’avance les résultats d’une élection. Des erreurs sont évidemment possibles. Tout dépend du modèle sous-jacent. Aux élections présidentielles françaises de 2002, aucun institut de sondage n’avait annoncé la possibilité que Jean-Marie Le Pen parvienne au deuxième tour.
Les probabilités s’introduisent aussi d’une manière naturelle dans les sciences physiques, du fait qu’aucun phénomène n’étant totalement isolé, elles permettent souvent d’appréhender de manière synthétique la myriade de facteurs secondaires qui peuvent les affecter . Il n’est pas surprenant que l’astronomie y ait recours, et Laplace, déjà plusieurs fois cité, fut aussi l’un des grands maîtres du calcul des probabilités. À la fin du XIXe siècle a émergé la physique statistique, qui applique avec bonheur ses méthodes pour aboutir à des résultats quasi certains concernant de vastes populations d’atomes et de molécules, appréhendées comme des touts. La mécanique quantique repose sur l’idée de probabilités intrinsèques, irréductibles à des combinaisons de hasard, ce contre quoi Albert Einstein s’insurgeait en disant : « Dieu ne joue pas aux dés. » Ajoutons enfin que la théorie moderne de l’information, dont les applications aux technologies de la transmission des données sont étendues, dérive entièrement de la théorie des probabilités, dont elle constitue une branche. Elle exploite typiquement l’idée que, dans la transmission d’un message envoyé comme une suite de lettres, toutes n’ont pas la même probabilité d’apparaître. Le schéma probabiliste sous-jacent repose sur une analyse du langage naturel employé (les consonnes s, t, w ou z apparaissent plus fréquemment en polonais qu’en italien…). En théorie de l’information, on appelle bruit la résultante des causes secondaires de faible amplitude qui perturbe la transmission des messages. Le bruit est typiquement représenté par une loi gaussienne .
Avec les considérations qui précèdent, nous nous approchons des méthodes couramment utilisées pour l’analyse et la prévision des phénomènes sociaux. De tous temps, des États ont cherché à construire des bases de données concernant leurs populations. Le mot Statistik a été introduit par Achenwall au milieu du XVIIIe siècle. Littré définit la statistique comme la « science qui a pour but de faire connaître l’étendue, la population, les ressources agricoles et industrielles d’un État » et considère la statistique comme une « partie de l’économie politique ». Ainsi, la notion de statistique, dans le sens des bases de données, est-elle étroitement liée, à l’origine, à l’art de gouverner et donc de prendre des décisions engageant l’intérêt d’une communauté. Aux États-Unis, un think tank comme la Brookings Institution a été fondé sur le constat de l’insuffisance des bases de données nécessaires pour bien gouverner les États-Unis à l’époque. Constat remarquable en soi, mais aussi parce que la décision d’y remédier a été purement privée, ce en quoi on peut voir l’un des traits culturels les plus fondamentaux de l’Amérique, que Tocqueville avait clairement identifié, à savoir que l’État n’y a pas le monopole de l’intérêt général. Mais dans l’ensemble les think tanks sont davantage utilisateurs que producteurs de bases de données. L’exploitation des données fait appel à diverses méthodes parmi lesquelles la statistique mathématique, fondée sur le calcul des probabilités, tient une place importante.
Prenons l’exemple de la démographie. Un de ses concepts de base est la pyramide des populations. Il s’agit d’un graphique qui montre, à une certaine date, le nombre d’hommes et de femmes en vie, répartis par tranches d’une année. Les statistiques basiques étant dégrossies de cette manière, le travail de prévision consiste à projeter, à partir de la date actuelle, les pyramides pour les années futures. À cette fin, on doit faire des hypothèses sur les naissances à venir et sur la mortalité à chaque âge. Pour les naissances, on cherche à anticiper l’évolution du taux de fécondité des femmes en âge de procréer. Ce travail est nature essentiellement sociologique. Ainsi, semble-t-il bien établi que, dans les pays développés, les femmes ont leur premier enfant à un âge de plus en plus reculé, et qu’elles tendent à en avoir insuffisamment pour assurer le renouvellement des générations. Du côté de la mortalité, l’élaboration des projections requiert la prise en compte de facteurs comme l’évolution de la médecine, de l’organisation de la santé publique et aussi, bien évidemment, des comportements. Alors que l’évolution de la fécondité peut réserver des surprises même à court terme, celle de la mortalité est plus stable dans un premier temps. On conçoit en tous cas que le raisonnement probabiliste ait sa place dans tous les cas. On comprend aussi aisément pourquoi la démographie a la réputation d’être la plus rigoureuse des sciences sociales. Cela tient au caractère géométrique de ses méthodes de base, en raison de la lenteur des évolutions naturelles . Ainsi une diminution actuelle des naissances ne commencera-t-elle à avoir un impact notable que lorsque les filles nées aujourd’hui atteindront leur période de fécondité. En ce sens, la bonne performance de la démographie dans le domaine de la prévision n’a rien de mystérieux. Au-delà d’un ou de deux siècles, les projections retrouvent un très haut degré d’incertitude. D’où le recours à la méthode de scénarios chère aux prospectivistes, qui consiste ici à projeter les pyramides futures en fonction d’hypothèses a priori sur les paramètres de base (fécondité, mortalité). Un tel exercice est purement formel et ne requiert qu’une dose minimale de finesse. Il n’en est pas moins fort utile pour catalyser des réflexions et formuler des questions pertinentes en vue de décisions qui ne peuvent pas attendre.
Cela dit, la démographie a ses théories, utiles pour éclairer les scénarios. Celle de la transition démographique est suffisamment grossière pour que l’on puisse l’exposer en quelques lignes. Elle procède de l’observation que, dans des pays sous-développés, le taux de fécondité est élevé pour essentiellement deux raisons : d’une part, l’importance de la mortalité infantile ; d’autre part, la pratique du travail des enfants. Avec le développement économique, ces deux facteurs diminuent. Mais des comportements enracinés dans le temps ne s’adaptent que lentement. D’où le phénomène de l’explosion démographique, qui se produit dans un premier temps, lorsque la réduction de la fécondité tarde à suivre celle de la mortalité. Dans un second temps cependant, les paramètres s’ajustent au point d’en arriver, mais bien plus tard, aux situations de maints pays mûrs dans lesquels la fécondité n’assure plus le renouvellement des générations. La population commence par vieillir avant de diminuer drastiquement.
Discipline ancienne et donc bien établie, la démographie a ses propres instruments de recherche et ne se prête pas directement à la logique des think tanks, dont la vocation est d’éclairer les décisions concrètes dans un champ intermédiaire, aussi bien du point de vue de l’activité (entre le micro et le macro) que de celui de la temporalité (moyen terme). Mais certaines des questions qu’elle soulève peuvent être considérées sous cet angle. Je prendrai deux exemples. Le premier concerne le champ couvert par la statistique. En France, par exemple, au nom du mythe « républicain », la loi interdit de constituer des bases de données ethniques ou religieuses, et restreint la liberté d’expression. La tradition culturelle américaine est aux antipodes : le premier amendement de la Constitution, constamment conforté par la jurisprudence de la Cour suprême, s’oppose à toute limitation de la liberté d’expression, de quelque nature que ce soit. Méthode Coué d’un côté, licence de l’autre ? Voilà un sujet essentiel, qui assurément ressortit davantage à l’esprit de finesse qu’à l’esprit de géométrie, et qui permettrait un débat serein. Le second exemple nous permettra aussi de mieux comprendre le rôle des think tanks. Nous avons vu qu’à l’horizon d’une trentaine d’années, typiquement, les projections démographiques sont très sûres. Ainsi en France, comme dans d’autres pays comparables à cet égard, la question du vieillissement de la population, avec les difficultés qu’elle soulève pour le financement de la santé publique ou celui des retraites, est-elle parfaitement identifiée depuis les années 1970. On est donc fondé à s’étonner de l’impasse où nous nous trouvons, quatre décennies plus tard. Encore faut-il expliquer cette situation aberrante. Au niveau le plus fondamental, cela tient à la nature de la politique. L’activité de l’homme politique ressortit clairement à l’esprit de finesse et à « l’art d’agréer », et le praticien moyen de cet art cherche à séduire ses compatriotes plutôt qu’à prévenir leurs maux futurs. Pour parvenir à ses fins, il a recours sans vergogne à tous les subterfuges de la démagogie et de l’idéologie. Hormis des drames exceptionnels, on ne se maintient pas au pouvoir en promettant du sang et des larmes au nom d’un piège mal identifié par les électeurs. Il était plus payant pour François Mitterrand d’abaisser que d’allonger l’âge de la retraite, et il ne manquait pas d’« intellectuels » zélés autour de lui pour légitimer même à ses propres yeux la retraite à 60 ans. Le même scénario devait se produire avec la semaine de 35 heures, inventée si l’on peut dire par Dominique Strauss-Kahn. Si la France avait alors été dotée de think tanks, dans le sens exigeant du terme, outillés pour traiter ce genre de problèmes ou d’autres sur la base d’analyses et de prévision solides et transparentes, le débat public aurait peut-être pris une tournure plus informée et moins passionnelle. Des vagues idéologiques et la démagogie peuvent submerger temporairement un pays comme les États-Unis, mais aussi longtemps qu’il conservera la liberté de penser et des institutions comme les think tanks qui jouent un rôle de force de rappel vers la réalité, il gardera sa capacité de rebondir. En écrivant ces lignes, l’auteur est conscient d’esquisser à la fois une analyse et une prévision !
Après avoir évoqué la démographie, c’est tout naturellement que j’en viens à l’économie. Edmond Malivaud, l’un des chercheurs français les plus connus internationalement dans la seconde partie du XXe siècle dans ce domaine, proposait la définition suivante : « L’économie est la science qui étudie comment les ressources rares sont employées pour la satisfaction des besoins des hommes vivant en société ; elle s’intéresse, d’une part, aux opérations essentielles que sont la production, la distribution et la consommation des biens, d’autre part, aux institutions et aux activités ayant pour objet de faciliter ces opérations. » En pratique, cette discipline se laisse diviser en deux grandes branches bien que ce soit contestable au niveau le plus fondamental de la réflexion : la microéconomie et la macroéconomie. La première, dont le sommet le plus élevé est la théorie des jeux, élabore des modèles abstraits d’interactions entre des agents considérés comme des décideurs individuels, représentés par des sortes de robots (producteurs identifiés à leur « fonction de production », consommateurs à leur « fonction d’utilité »). On en déduit des enseignements pertinents pour le fonctionnement des économies réelles, par exemple, pour comprendre la loi de l’offre et de la demande ou pour « démontrer » la supériorité des économies de marché sur les économies à planification centralisée, une question fort sensible à l’époque de la guerre froide ; ou encore pour analyser les avantages de l’ouverture des frontières et du commerce international et à l’inverse, les inconvénients du protectionnisme. La macroéconomie raisonne sur des catégories agrégées d’agents (par exemple, ménages, entreprises, institutions financières, administrations) et se concentre sur un petit nombre de questions importantes pour la politique économique des États et des institutions interétatiques, comme la croissance et donc le progrès technique, l’emploi, la distribution des revenus, l’inflation ou l’équilibre de la balance des paiements. En théorie économique, la robotisation s’étend jusqu’à la manière dont on représente – fort géométriquement et souvent fort élégamment – la notion de prévision, typique dans le modèle des « anticipations rationnelles ». La comptabilité nationale s’est développée pendant le second XXe siècle pour permettre à l’économie de se rapprocher des sciences expérimentales.
L’économétrie est la branche de la statistique mathématique adaptée à la confrontation des modèles avec des bases de données. Un aspect particulier de l’économétrie est dévolu à la question de la prévision dans ce contexte. Je me bornerai à ce sujet à remarquer que l’on ne doit pas confondre deux sources d’incertitude. L’une revient à la notion proprement statistique d’intervalle de confiance, dans le cadre d’un modèle supposé exact et utilisant des données supposées parfaitement fiables, ou entachées d’erreurs probabilisables. L’autre, beaucoup plus fondamentale et généralement ignorée, est le degré de pertinence du modèle lui-même, et ne se laisse pas cerner en termes de probabilités. L’analyse et la prévision dans le cadre d’un modèle donné sont affaire de géométrie. Le choix d’un « bon » modèle est affaire de finesse. Et tant il est vrai, comme on l’a vu, qu’« il est rare que les géomètres soient fins et que les fins soient géomètres », l’économétrie n’a pas porté les fruits qu’en attendaient naïvement même de grands esprits comme Paul Samuelson (1915-2009), le plus célèbre des économistes du XXe siècle après Keynes. Comme bien d’autres en effet, Samuelson avait pendant un temps cédé à l’illusion de croire que grâce aux progrès de la macroéconomie et de l’économétrie, la précision de la prévision en économie approcherait celle de la mécanique céleste et que l’on pourrait ainsi élaborer et mettre en œuvre des politiques économiques quasi parfaites (croissance et plein-emploi sans inflation ni déséquilibre des paiements, etc.). Je peux témoigner d’une conversation avec lui sur ce sujet dans les années 1980. Plus récemment, après les succès initiaux de la mondialisation et la chute du système soviétique, et donc l’échec du socialisme prétendument scientifique, le monde a été temporairement submergé par une variante opposée de la même idéologie, celle de la fin de l’Histoire. Tout cela s’est effondré avec la crise de 2008 et le retour du spectre des années 1930 .
Dans sa monumentale History of Economic Analysis, publiée en 1954 après sa mort, Joseph A. Schumpeter (1883-1950), dont la gloire a été injustement supplantée par celle de son contemporain John Maynard Keynes, classe les méthodes de sa discipline en trois catégories principales : l’histoire, la statistique et la théorie (il en a, ultérieurement, rajouté une quatrième : la sociologie économique). L’histoire économique est, pour Schumpeter, la catégorie essentielle, pour trois raisons. Premièrement, la matière de l’économie est un processus historique unique. Il faut à la fois connaître les faits relatifs au passé et posséder ce que l’auteur appelle un « sens de l’histoire ». Deuxièmement, la connaissance de l’histoire économique est la meilleure approche pour saisir l’interaction des phénomènes économiques avec les autres phénomènes sociaux. Enfin, notre auteur attribue la plupart des erreurs importantes commises par les économistes au manque d’« expérience historique ». Plus généralement, toute connaissance procède essentiellement de comparaisons dans le temps (analyse diachronique) et dans l’espace (analyse synchronique). Dans un important ouvrage publié en 2009 , Carmen Reinhart et Kenneth Rogoff étudient systématiquement des centaines de crises financières ayant affecté 66 pays à travers les cinq continents, au cours de huit siècles. Malgré les controverses statistiques que leur étude a suscitées, leur conclusion paraît sans appel : « L’accumulation excessive de dettes, que ce soit par les gouvernements, les banques, les entreprises ou les consommateurs, crée souvent un risque systémique plus grand qu’il ne paraît pendant une phase d’expansion […] De telles accumulations à grande échelle engendrent des risques parce qu’elles rendent l’économie vulnérable aux crises de confiance, en particulier quand la dette est à court terme et doit être constamment refinancée. » Il y a dans ce propos un point essentiel pour la notion de prévision. Reinhart et Rogoff dénoncent les dangers d’un endettement excessif, mais il faut se garder de définir des seuils précis. Ils disent en substance qu’une crise de confiance risque de se produire, à partir d’un incident quelconque sans que l’on puisse relier cette prévision à un niveau précis de l’endettement en question. On retrouve ainsi la notion de non-linéarité. Mais, de même que l’on connaît les failles le long desquelles peuvent se produire des tremblements de terre, de même on sait que les pays lourdement endettés sont menacés par des crises de confiance. Contrairement à l’exemple géologique, nous sommes ici dans une situation que l’on pourrait prévenir. En l’occurrence, avant 2008, les économistes n’ont globalement pas joué leur rôle, les plus audibles étant restés enfermés dans des doctrines (monétarisme ou keynésianisme) insuffisamment sensibles à l’expérience historique. Et les voix qui ont pu tirer la sonnette d’alarme n’étaient pas suffisamment libres ou influentes pour l’emporter sur la préférence générale des politiques pour la facilité et le court-termisme. La crise de 2008, amplifiée en raison de la généralité du phénomène de l’endettement, illustre à la perfection le premier point de Schumpeter, où il est clair qu’il s’agit bien davantage d’esprit de finesse que d’esprit de géométrie.
En deuxième position, Schumpeter cite « la statistique », c’est-à-dire la constitution de bases de données relatives aux principaux phénomènes économiques. Je n’insiste pas sur ce sujet. La plupart des pays, en particulier les plus grands, ont créé divers instituts à cet effet.
En troisième lieu, la théorie. En économie, comme dans d’autres domaines, le mot « théorie » a deux acceptations pertinentes. Pour l’une, il s’agit des « hypothèses explicatives » familières aux historiens (Pirenne, Braudel, etc.). Comme le remarque Schumpeter, l’historien le plus attaché aux faits n’évite pas de formuler de telles hypothèses, de même que le statisticien structure généralement ses données à partir d’une base conceptuelle . La deuxième acceptation est plus riche : la théorie économique est conçue comme un ensemble de modèles, logiquement cohérents et suggérés par des « faits » plus ou moins stylisés, quoique – avec ou sans appel à l’économétrie – le lien entre le modèle et les faits soit en règle générale infiniment plus lâche que dans le cas des sciences de la nature. Ainsi, naguère encore, tous les étudiants en économie étaient-ils principalement exposés au « modèle classique », au « modèle keynésien » ou encore à la « synthèse néo-classique » . Aucun de ces modèles, qui visent à comparer les mérites respectifs ou conjoints des politiques monétaires et budgétaires , n’incluait l’endettement dans ses équations. Ils restent encore fort utiles pour réfléchir à la politique économique, toute la difficulté pour l’utilisateur étant de manier finement ces êtres géométriques. Schumpeter dénonçait vigoureusement les dangers des applications « irresponsables » de la théorie aux problèmes pratiques. On en revient à l’importance de l’histoire et de l’expérience – comme celle des banques centrales ou d’une institution comme le Fonds monétaire international – et à la nécessité de débats structurés.
Ce dernier point est capital car, dans un pays comme la France où l’idéologie prime sur la culture dans le domaine économique, l’opinion publique a tendance à percevoir les économistes ayant pignon sur rue comme les médecins de Molière qui dissimulent leur ignorance derrière un vocabulaire abscons et s’acharnent à se contredire les uns les autres, alors qu’ils devraient s’imposer de mettre en lumière les zones d’accord et de relativiser les points de divergence.
Écoutons le docteur Diafoirus : « À vous en parler franchement, notre métier auprès des grands ne m’a jamais paru agréable, et j’ai toujours trouvé qu’il valait mieux, pour nous autres, demeurer au public. Le public est commode. Vous n’avez à répondre de vos actions à personne ; et pourvu que l’on suive le courant des règles de l’art, on ne se met point en peine de tout ce qui peut arriver. Mais ce qu’il y a de fâcheux auprès des grands, c’est que, quand ils viennent à être malades, ils veulent absolument que les médecins les guérissent . » D’où vient que, « lorsqu’ils vont au public », tant d’économistes s’ingénient à se contredire les uns les autres et, oubliant l’art de raisonner, ne pratiquent que celui d’agréer ? Pourquoi perdent-ils de vue la recherche de la vérité, et en viennent-ils à se prendre pour des hommes politiques qu’ils ne sont pas ou pour ceux qu’ils servent alors qu’ils devraient seulement les conseiller ? C’est que pour plaire aux médias, il faut « suivre le courant des règles de l’art », mais un art qui n’est pas celui de la démarche scientifique, qui en réalité est son opposé. Il y faut de la provocation, de l’impertinence, de la polémique ; et non de la pondération, du respect, de l’échange informé entre pairs pour éclairer spectateurs, auditeurs ou lecteurs. Et même dans les meilleurs journaux, la rédaction s’évertuera souvent à présenter à égalité deux thèses diamétralement opposées sans se demander si leurs auteurs jouent dans la même catégorie, et sans organiser entre eux un débat qui éclairera vraiment, c’est-à-dire où l’on verra clairement où l’on est d’accord et où on ne l’est pas, et pourquoi. Dès lors que l’on n’est pas responsable de guérir les grands – entendons ici, que l’on n’exerce pas de responsabilités au sein d’une unité active, privée ou politique –, on se lâche. Tout cela donne une image désastreuse des économistes fussent-ils « distingués », comme on dit. Pourtant, il suffit d’examiner les manuels universitaires en usage partout dans le monde pour constater que les plages d’accord sont bien plus importantes que les plages de désaccord, et que s’il y a désaccord (comme encore dans certains domaines de la médecine !) c’est en raison de zones d’ignorance. Et parce que l’ignorance est rarement totale, il y a place pour le débat entre pairs.
Les universités et les centres de recherche fondamentale sont les lieux appropriés pour les débats scientifiques. La place naturelle des think tanks est la réflexion et le débat informé sur les politiques économiques dans des situations concrètes, avec la participation des publics directement ou indirectement intéressés. Toute la difficulté est ici dans l’identification et le respect des « règles de l’art », qui ne sont ni celles de la démarche scientifique, ni celles des médias. Et rien n’est plus pathétique qu’un « expert » inconnu de ses pairs, invité par une chaîne de télévision parce qu’il se montre toujours disponible quand on le convoque, et qui assène devant les caméras des platitudes idéologiques présentées comme des arguments d’autorité, devant un journaliste préoccupé de l’audimat et soucieux de ne pas dépasser les quarante-cinq secondes imparties. Ce qui précède est caricatural, j’en conviens, mais capte à mon sens un aspect d’une réalité qui mérite attention, parce que porteur des plus graves déconvenues dans l’ordre de la prévision. À certains égards, ce qui vient d’être dit pour l’économie vaut évidemment pour d’autres domaines, comme la géopolitique au sens courant du terme. On pourrait imaginer qu’avec un bon vivier de think tanks capables d’organiser des débats solides en arrière-plan, les débats politiques deviennent moins pollués par les raisonnements parfois complètement aberrants qui, les choses étant ce qu’elles sont, non seulement ne discréditent pas ceux qui les tiennent, mais rencontrent l’accueil favorable d’un public qui hélas les encouragent à s’enfoncer.
S’agissant de l’analyse et de prévision, on ne peut guère parler d’économie sans parler de finance, surtout à l’ère de la mondialisation. Schématiquement, il existe deux sortes d’investissements, ou de fonds . Ceux qui, à l’instar du plus admiré d’entre eux, Warren Buffett, refusent de se laisser piéger par les aléas du « court terme » et portent leur attention sur les tendances « à long terme » ; et ceux, qualifiés du vocable plus ou moins péjoratif de « spéculateurs », comme le très médiatique George Soros, qui surfent au contraire sur les vagues du court terme. Buffett a constitué une immense fortune (et a fait gagner beaucoup d’argent à ses clients) en s’appropriant les enseignements de Benjamin Graham et de David Dodd, auteurs en 1934 d’un best-seller inégalé, intitulé Security Analysis, dans lequel ils exposent des méthodes pour identifier et acheter des actions et des obligations « which are selling well bellow the level apparently justified by a careful analysis of the relevant facts ». Ces méthodes, dont certaines comme la comptabilité, ont un caractère fortement « géométrique », permettent d’organiser les prévisions sur la base desquelles, in fine, un jugement synthétique est opéré. Ce jugement suppose de la finesse, sans quoi Buffett ne serait pas unique. La finesse consiste à voir, dans tel ou tel chapitre technique d’un dossier ou directement dans le tout le ou les petits détails décisifs. En d’autres termes, il s’agit de s’affranchir des œillères dont se parent les analystes et prévisionnistes ordinaires, enfermés dans des routines (imposées dans le cas des consultants).
Je parle là d’un fonds d’investissement. La démarche est comparable pour une entreprise – hors situation d’urgence liée, par exemple, à un problème d’endettement et à la nécessité de reconstituer rapidement une trésorerie – qui fait des acquisitions et/ou qui se sépare d’une branche d’activité. La différence est que, dans le cas d’un fonds, l’objectif opérationnel de l’investissement est la maximisation de la valeur – ou plutôt de la valeur espérée à un certain horizon. Dans la réalité, cette notion est qualitative et ne se réduit pas à une espérance mathématique calculable dans un modèle. Les motivations psychologiques plus fondamentales de l’investisseur (disons Warren Buffett) peuvent être plus subtiles que cela. Elles dépendent de sa personnalité, dans l’acceptation la plus profonde du terme. Dans le second cas, la décision repose toujours sur un couple analyse-prévision aussi solide que possible, mais se rattache à une stratégie (telle que la recherche à un horizon fixé d’un avantage concurrentiel, d’un objectif de croissance et/ou de marge opérationnelle, etc.) qui ne découle pas en ligne directe de l’objectif de maximisation de la valeur (espérée) de l’entreprise, auquel se résume en principe la volonté des actionnaires.
L’activité de fusions-acquisitions, comme l’émission des titres (actions et obligations), est soutenue par les banques d’affaires, dont c’est le métier, mais, comme on l’a déjà dit, les consultants et les think tanks ont souvent un rôle à jouer, les premiers focalisés sur les activités, les seconds sur l’environnement.
Ajoutons qu’à l’époque contemporaine, le management d’une entreprise doit tenir compte d’un ensemble de parties prenantes (stakeholders) qui dépasse les seuls actionnaires (shareholders), et que les motivations intimes des dirigeants sont a priori au moins aussi variées que celles des dirigeants des grands fonds . En particulier, elles ne coïncident pas parfaitement avec celles des actionnaires.
Avant d’en arriver aux spéculateurs, arrêtons-nous un instant sur la catégorie intermédiaire des hedge funds et du private equity. Dans les deux cas, le but est d’identifier des entreprises sous-évaluées, non pas à cause d’imperfections d’un quelconque marché, mais du fait de déficiences managériales . Ces fonds achètent tout ou partie de telles entreprises, s’emploient à les restructurer (en passant le plus souvent par un changement complet du management), et les revendent plus ou moins rapidement en dégageant un surplus aussi élevé que possible, surplus qui devient disponible pour d’autres opérations. Ce qui différencie ces fonds de la catégorie précédente, c’est la rotation plus rapide du portefeuille. Cela change radicalement la notion de la relation entre l’entreprise et son propriétaire. En particulier, le souci de rentabiliser rapidement l’acquisition n’est pas neutre vis-à-vis des choix stratégiques. Le biais court-termiste est aggravé du fait que ces fonds ne sont pas astreints à investir sur leurs fonds propres, c’est-à-dire qu’ils peuvent emprunter de façon théoriquement illimitée pour réaliser leurs opérations. On comprend que, dans certaines situations affectant les marchés financiers dans leur ensemble, il puisse y avoir là les germes d’une crise systémique.
Les fonds spéculatifs poussent la logique du court-terme à l’extrême. Ils utilisent leurs ressources propres ou empruntées pour acheter et vendre au comptant (long selling) ou à découvert (short selling), au jour le jour et même heure par heure ou minute par minute, tout ce qui est négociable sur les marchés : actions, obligations, dettes publiques, monnaies, etc. Soros a atteint la célébrité internationale en gagnant un milliard de dollars dans une attaque de la livre sterling, en 1992. Depuis lors, grâce à son instinct hors pair, ses affaires n’ont fait que prospérer. Parallèlement à son activité capitaliste, il est devenu fondateur de think tanks et auteur à succès. Mon but ici est seulement de faire ressortir l’extrême complexité de ce type d’activité. Un spéculateur doit en effet traiter et intégrer à chaque instant au moins quatre niveaux d’analyse et de prévision. Il lui faut avoir une vision claire d’un petit nombre de scénarios possibles, des principales composantes de la politique et de l’économie internationale à court et moyen terme, au-delà des turbulences immédiates, et de leur degré de vraisemblance (on ne peut évidemment pas parler de probabilité au sens mathématique du terme) ; il doit comprendre et anticiper les décisions des États et des autres acteurs majeurs susceptibles d’affecter les marchés, et simultanément anticiper les réactions desdits marchés à ces décisions ; il doit connaître les fondamentaux des instruments financiers sur lesquels il intervient (par exemple, les entreprises d’un certain secteur) ; il doit être à l’affût des macro-informations aussi bien que des « signaux faibles » susceptibles d’avoir des répercussions immédiates sur ses activités (par exemple, la publication d’un indicateur de chômage ou d’un avertissement de baisse de note par une agence de notation dans un cas, un propos inattendu tenu par une personnalité influente, c’est-à-dire dans le jeu, dans l’autre), et de prévoir ces répercussions. Pour accomplir ces tâches, le spéculateur rassemble un grand nombre de données et doit s’organiser pour identifier et recueillir les informations pertinentes en temps réel. À cette fin, il peut s’entourer, en dehors de ses propres collaborateurs, de conseillers expérimentés dont le jugement a été éprouvé dans le temps, ou encore de consultants extérieurs parmi lesquels certains think tanks. Mais en fin de compte, comme tous les vrais décideurs, qui par définition sont responsables de leurs actes, il se détermine et assume ses risques sur la base d’une synthèse intuitive, irréductible à un raisonnement « géométrique ».
Le travail d’un fonds spéculatif est comparable à celui des scientifiques qui, face à un problème complexe comme l’avènement d’un tremblement de terre ou d’une tornade, s’acharnent à identifier les bifurcations possibles et à les anticiper, ne fût-ce que très peu de temps avant leur occurrence. Il se situe même un cran au-dessus dans l’ordre des difficultés, puisque l’on ne parle pas ici de matière inanimée, mais d’une myriade de comportements humains dont l’interaction n’obéit à aucune loi statistique. Nous sommes donc là dans un domaine où le succès exige un haut degré de finesse, avec cette caractéristique supplémentaire que le métier s’exerce dans un stress permanent et d’autant plus grand que la situation exige davantage de lucidité de la part des décideurs.
Ce n’est pas ici le lieu de s’interroger sur l’utilité sociale des diverses catégories de fonds, sur l’interaction entre l’économie réelle et les marchés financiers, sur le problème de la régulation et de la gouvernance, etc. J’ajouterai cependant un commentaire sur une question qui a une incidence directe sur notre propos. Il s’agit du rapport entre la théorie économique et l’idéologie. Les débuts prometteurs de la mondialisation et la chute du communisme ont provoqué un engouement idéologique pour l’économie de marché – en réalité subrepticement confondue, les passions et les intérêts aidant, avec l’économie des marchés financiers, et plus précisément le laisser-faire-laisser-passer dans la sphère financière. Il n’est pas étonnant, dans ces conditions, que la « théorie néoclassique de la finance » ait triomphé, au point de se voir attribuer des prix Nobel. L’idée centrale en est une généralisation du principe de non-arbitrage : le système des prix d’équilibre des actifs financiers est univoquement déterminé par l’impossibilité pour un « arbitragiste » de profiter d’une différence de prix relatifs, car le marché est supposé incorporer toute l’information disponible . Malgré l’élégance formelle de cette théorie – un petit bijou produit par l’esprit de géométrie –, la notion d’information disponible n’est pas définie de façon précise, et si l’on a suivi les développements qui précèdent, on sent qu’elle ne peut pas l’être. Et, à supposer qu’il existe des « prix d’équilibre », comment sont-ils reliés à l’économie réelle et avec quelles conséquences ? Ces prix sont-ils stables ? Et s’ils ne le sont pas, un déséquilibre peut conduire à des bifurcations catastrophiques. Quoi qu’il en soit, en tant qu’elle a pu servir d’argument d’autorité à des praticiens de la finance internationale, moins inspirés par la beauté des modèles théoriques que par le renforcement de leur pouvoir et de leur fortune, la théorie néoclassique a contribué à préparer la crise de 2008. À ce titre, elle méritait d’être mentionnée dans notre étude.
Dans tout ce qui précède, je me suis surtout placé du point de vue de la macroéconomie et de la finance, mais on pourrait sans difficulté poursuivre l’analyse dans l’ordre de la microéconomie, en s’intéressant à des sujets comme l’organisation des marchés réels (par opposition aux marchés financiers), la production des biens publics, l’incidence de la fiscalité, etc. Entre les instituts spécialisés et les universités d’une part, les gouvernements et les administrations de l’autre, il y a place pour des think tanks afin de produire et d’animer des débats pour améliorer la qualité des prévisions dans ces domaines, en développant le jugement de ceux qui y participent.

J’en arrive enfin à un domaine où je serais tenté de transposer une formule célèbre et d’afficher : « Que nul n’y entre s’il n’a l’esprit de finesse. » Il s’agit du politique, la res publica, c’est-à-dire la chose publique, ce qui concerne les unités actives en tant que telles – particulièrement celles qui se considèrent souveraines, c’est-à-dire les unités politiques – ainsi que les systèmes d’unités actives (en particulier les « relations internationales »).
Comme dans tous les domaines, l’analyse et la prévision (ou prédiction) s’effectuent ici à différentes échelles. À l’échelle macroscopique, on considère des unités actives, voire des systèmes d’unités actives, comme des touts, que l’on peut caractériser au moyen d’un petit nombre de critères. Pour un État, il s’agira par exemple des données géographiques et démographiques de base (y compris ethniques), ou plus généralement des facteurs de puissance ou de faiblesse, de la nature du régime politique ; pour une alliance militaire (par exemple, le traité de sécurité mutuelle entre les États-Unis et le Japon) ou pour un cartel (par exemple, l’OPEP), de son objet, de son histoire et de son environnement, de sa composition et de son organisation. Avec un bon choix de critères (c’est là que la finesse commence à intervenir), on peut déjà formuler des prévisions/prédictions sérieuses. Ainsi sait-on que tout régime autoritaire ou a fortiori totalitaire finit par disparaître, que « tout empire périra » (titre d’un livre de Jean-Baptiste Duroselle ), ou que tout cartel est instable et donc susceptible de se désintégrer. La théorie élémentaire des jeux éclaire bien ce genre des questions. Encore faut-il pousser l’analyse un cran plus loin, ce qui requiert un surcroît de finesse. Comment caractériser le régime algérien sous le quatrième mandat du président Bouteflika ? Qu’est-ce qu’un empire ? Faut-il considérer l’Union soviétique d’autrefois ou la République populaire de Chine d’aujourd’hui comme des empires ? Comment préciser les fragilités de la Russie postsoviétique ? Quel est le rapport des forces au sein de l’OPEP, et comment juger les influences extérieures qui s’exercent sur cette organisation ? La réponse à ce genre de questions ne saurait résulter directement d’une collecte de données, comme pour un expérimentateur ou un ingénieur face à une réaction chimique. Indépendamment de la difficulté de rassembler certaines données, il faut de la finesse pour les interpréter. Certains experts bardés de données, parfois biaisées par des implications émotionnelles (typiquement ethniques ou idéologiques), se fourvoient, tandis que d’autres analystes moins lourdement encombrés voient juste, avec seulement l’aide de quelques points de repère ou d’observation. C’est tout l’art du jugement, ou de l’intuition, qui n’a à mon avis qu’un lointain rapport avec la distinction « Thinking, fast and slow » du psychologue et prix Nobel Daniel Kahneman, ou avec le point de vue du sociologue Raymond Boudon selon lequel l’intuition n’est que de la rationalité compressée. Je ne crois pas que l’on puisse comparer l’analyste s’interrogeant en 1980 sur la survie de l’Union soviétique et le capitaine de pompiers ordonnant à ses hommes d’évacuer le plancher d’une maison en flammes quelques secondes avant qu’il ne s’écroule. Dans le premier cas, il s’agit d’une situation historique particulière et donc unique. Le fait est qu’aucun analyste de renom, pas même Raymond Aron (cf. son livre Les Dernières Années du siècle), n’avait osé formuler l’hypothèse d’un écroulement rapide de l’URSS. Dans le second cas, on a affaire à une situation répétitive, où donc les réflexes peuvent s’éduquer, certes avec plus ou moins de bonheur selon les sujets. Ces deux cas sont entre eux comme la stratégie et la tactique.
Le point essentiel derrière cette discussion est le facteur du temps. Une chose est de prévoir ou de prédire l’écroulement d’une dictature (Ben Ali, Assad…) ou d’un empire (avec la chute de l’URSS, il y a en fait deux phénomènes, la décomposition d’un régime et, effectivement, celle d’un empire). Sous couvert d’une affirmation particulière, on ne fait en réalité que formuler un syllogisme : tout empire finit par s’écrouler ; or l’URSS est un empire ; donc l’URSS finira par s’écrouler. Pour que la prévision/prédiction soit bonne, il suffit d’avoir correctement qualifié le sujet (l’URSS dans cet exemple). Tout autre chose est la datation de l’événement ou des événements ainsi annoncés. Nous sommes ici dans une situation très différente de la physique, même si la décomposition des éléments radioactifs, par exemple, ne peut individuellement s’analyser qu’en termes probabilistes, au sens précis de la théorie mathématique des probabilités. Dans ce type de situations la loi des grands nombres, sans doute le résultat le plus fondamental de la théorie des probabilités, permet de convertir des probabilités à l’échelle microscopique en certitudes à l’échelle macroscopique. Affirmer en 1980 que l’Union soviétique était condamnée à périr n’avait aucune portée pratique, si l’on était incapable de préciser, au moins en termes subjectifs, la probabilité (et les modalités !) de cette mort à un horizon rapproché (par exemple, avant la fin du siècle). C’est pourquoi les événements de 1989-1991 (de la chute du Mur à la dissolution de l’URSS) sont un parfait exemple de ce que, dans son livre sympathiquement provocant sur « la puissance de l’imprévisibilité », Nassim Nicholas Taleb appelle un « cygne noir », c’est-à-dire un événement de grande portée que l’on n’avait pas imaginé ou que l’on avait considéré comme pratiquement impossible . De même, au moment où j’écris ces lignes, bien malin serait celui qui pourrait dire à quelle date et selon quelles modalités le régime nord-coréen disparaîtra, alors même que l’on peut tenir cette disparition pour certaine, et que l’on comprend bien le jeu des forces extérieures à la Corée du Nord. Notons que ce type d’incertitude est radicalement différent de celui qui entoure, disons, toute prévision sur l’état de la physique ou de la technologie en l’an 2200 (cf. ci-dessus Darwin et la physique vers 1860). Dans l’exemple de la Corée du Nord, nous faisons face à un événement certain, mais a priori multiforme et radicalement non datable, du moins au niveau de l’observation macroscopique. Face à de tels événements, la seule attitude raisonnable est de vivre avec la conscience qu’ils peuvent se produire à n’importe quels moments. N’est-ce pas ce que la sagesse recommande à tout un chacun, face à sa propre mort ?
Cela dit, même s’agissant d’événements comme la chute d’un régime dictatorial ou totalitaire, il peut être possible dans certaines conditions, en changeant légèrement d’échelle, de réduire le degré d’incertitude. Au moins depuis Paul Valéry, on sait combien il faut se méfier des « leçons de l’histoire ». Le moindre des charmes de cette discipline n’est pourtant pas qu’en offrant une multitude d’études de cas, elle rend possible, entre des mains habiles, la formulation de « lois », qu’il ne faut certes pas confondre avec celles de la nature, mais qui peuvent utilement guider des analystes suffisamment fins.
On peut en formuler de nombreuses et j’en ai déjà donné des exemples. J’en ajouterai trois. J’appelle le premier « paradoxe de Tocqueville ». D’un côté, on peut affirmer que tout régime sclérosé ne peut éviter la mort brutale que par des réformes ; de l’autre, il n’est jamais aussi vulnérable qu’au moment où il les entreprend. Tocqueville a formulé cette loi dans le contexte des révolutions européennes de 1848, mais son caractère a une portée universelle. Elle s’applique par exemple à la Russie de 1917 et à l’URSS de la fin des années 1980 [fin du régime tsariste qui a dégénéré après 1917, chute en douceur en 1991 : cela fait une énorme différence dans le vécu des bifurcations !], à l’Iran du Shah, à la chute de Ben Ali et de Moubarak. Son corollaire est qu’il faut réformer en position de force et non de faiblesse, ce qu’avaient compris Bismarck ou Deng Xiaoping. Certainement pas Gorbatchev. La transformation de la Chine depuis la mort de Mao en 1976 est un parfait exemple de « mutation lente » . Ainsi peut-on parfois réduire l’incertitude relative à la date d’un événement annoncé comme certain. Encore faut-il bien s’entendre sur la nature de cet événement. Selon la manière dont un régime aborde la question de sa propre réforme, il peut soit éviter sa chute en se transformant (mort douce par métamorphose) soit au contraire la précipiter (mort violente par décomposition). Reste, pour l’analyste, à bien appréhender la situation d’un régime face aux réformes (quid, par exemple, de l’avenir de la Birmanie ou a fortiori de la Corée du Nord ?). On n’échappe d’autant moins à l’impératif catégorique de la finesse que l’esprit renâcle à faire évoluer ses propres structures (mind set) et à saisir en temps réel le changement de son environnement, ce qui évidemment biaise le jugement ou même le paralyse. Un esprit qui serait suffisamment souple pour s’adapter immédiatement aux méandres de son environnement utile, en captant et en interprétant correctement un minimum de « signaux faibles », serait moins démuni devant les cygnes noirs. Comme – sans doute pour des raisons psychologiques et peut-être même biologiques profondes – rares sont les personnes suffisamment flexibles et sensibles, celles qui le sont courent le risque de l’isolement. Vox clamantis in deserto. Mais s’il est vrai que saint Jean-Baptiste prêchait dans le désert, il ne s’en adressait pas moins à une foule… L’efficacité d’une prévision résulte d’une interaction entre un analyste et un public, ce qui renvoie à des notions comme la réputation et la confiance…
La deuxième « loi », également due à Tocqueville (dans le cadre de son étude sur « l’Ancien Régime et la Révolution »), stipule qu’après une révolution, les nouvelles élites tendent à imiter celles qui ont été chassées.
La troisième pourrait s’énoncer ainsi : ce sont toujours les mêmes qui sont du bon côté. L’histoire de la Révolution française par exemple montre que les plus habiles, comme Talleyrand ou Fouché, se retrouvent toujours du côté du pouvoir, même à travers les circonstances les plus dramatiques. La barre de survie, si l’on peut dire, est beaucoup moins haute quand un régime ne sombre pas dans la décomposition violente, mais sous l’effet de révolutions pacifiques, ce qui fut le cas de la plupart des pays communistes dans ce que l’on appelait autrefois « l’Europe de l’Est », et naturellement des États issus du démembrement de l’Union soviétique. De ce point de vue, seuls les naïfs peuvent s’étonner du rôle que les anciens communistes jouent encore dans des pays devenus membres de l’Union européenne comme la Bulgarie ou la Roumanie, ou naturellement la Russie et dans les républiques de l’Asie centrale.
La deuxième et la troisième « lois » conduisent à rappeler que l’on a toujours tendance à surestimer les changements à court terme, et donc l’incidence d’événements considérés sur le moment comme des ruptures, alors qu’ils ne sont que des fluctuations. En ce sens beaucoup de cygnes noirs sont peut-être plus gris qu’on ne le pense. À l’inverse, on a non moins tendance à sous-estimer les changements à long terme, alors même qu’ils s’effectuent en douceur, sans rupture apparente (mutation lente). Ces biais s’expliquent sans doute par des épisodes de stress ou d’affolement qui, dans le premier cas, accompagnent la mise en lumière de situations non viables ou, dans le second, par la dédramatisation des adaptations bien engagées.
En commençant ce développement sur l’analyse et la prévision dans le domaine du politique, j’ai souligné l’importance de la notion d’échelle. Partant d’un point de vue macroscopique, nous avons subrepticement glissé de la vision télescopique vers la vision microscopique. Quand on dit que tout empire périra – ou d’ailleurs quand on énonce d’autres vérités basiques comme la tendance pour les populations des pays pauvres à émigrer vers les pays voisins plus riches –, point n’est besoin typiquement d’invoquer le rôle de personnalités individuelles. Mais quand il s’agit de dater, les détails comptent. On en revient toujours à l’histoire du nez de Cléopâtre. Ainsi, les circonstances particulières de la chute de l’Union soviétique mettent en scène des personnes en chair et en os, mais aussi en esprit, comme Gorbatchev ou Eltsine et bien d’autres moins célèbres. L’analyse sur le vif des circonstances susceptibles de provoquer de vraies ou fausses bifurcations et les prévisions qui en découlent, supposent un degré de finesse beaucoup plus élevé que les syllogismes du plan macroscopique. Or le niveau d’analyse n’est jamais suffisamment petit, il faut toujours aller voir de plus près, et chaque niveau a son potentiel de cygnes noirs, comme la tentative avortée de coup d’État contre Gorbatchev en août 1991. Nous sommes là très proches de l’idée de non-linéarité. Mais plus on travaille à l’échelle microscopique, moins les renseignements nécessaires à l’analyse concrète sont aisément disponibles. Dans l’Égypte post-Moubarak, par exemple, il était facile de pronostiquer d’emblée que le nouvel équilibre dépendrait principalement du rapport entre l’armée et les Frères musulmans, les manifestants initiaux de la place Tahrir ne jouant qu’un rôle transitoire. Un observateur non biaisé par l’idéologie (et donc par un « modèle » erroné) ne prenait pas grand risque en prévoyant que l’armée avait davantage de chances de sortir gagnante. Mais interpréter en temps réel, en août 2012, l’annonce par le président Morsi de la mise à l’écart du vieux maréchal Tantaoui et de quelques autres généraux au profit d’un certain général El-Sissi plutôt bien vu des islamistes, n’avait rien d’évident, même pour un esprit très fin, mais qui ignorait tout d’El-Sissi. Avec les échecs du régime dans les mois qui ont suivi, la prévision est devenue plus aisée. On en arrive ainsi à une conclusion essentielle : dans le domaine du politique (res publica, chose publique), les prévisions macroscopiques sont relativement faciles mais peu opératoires en raison de la difficulté voire l’impossibilité de leur donner une forme précise et surtout de les dater ; les prévisions microscopiques, susceptibles d’avoir un caractère opératoire, sont difficiles car elles requièrent à la fois de l’information non triviale et un haut degré de finesse.
À ce stade de l’exposé, nous ferons quelques remarques succinctes sur la notion de renseignement, ou d’information. L’anglais utilise le mot intelligence, qui dit bien ce qu’il veut dire et qui est d’ailleurs de plus en plus utilisé en français. Tout d’abord, l’information n’a de sens que par rapport à une question correctement formulée et dans un cadre analytique – ou modèle – explicitement ou le plus souvent implicitement posé (mind set, dans la forme implicite), ce cadre renvoyant à son tour à des préoccupations clairement identifiées. En gros, il s’agit de confirmer ou d’infirmer ce cadre. Je n’insiste pas sur les résistances psychologiques qui se manifestent dans le second cas. Parfois, les réponses à une batterie de questions bien posées peuvent en effet donner à un cadre analytique un haut degré de fiabilité. Or de tout cadre analytique pertinent découlent des prévisions justes. Ce qui ne veut pas dire que toutes les prévisions qui en découlent soient justes ; tout cadre, tout modèle a ses limites de validité. Souvent les réponses, parce qu’on ne les attendait pas, conduisent à modifier le cadre ou le modèle, et ainsi de suite jusqu’à ce que l’ensemble soit cohérent. Tel est, en substance, le travail des organisations de renseignement de toutes natures : services diplomatiques et services secrets des États, cellules d’intelligence économique, etc. Observons qu’à cet égard les think tanks se situent à un niveau mésoscopique : ni trop « macro » (on n’a pas besoin d’eux pour cela) ; ni trop « micro », en raison de leur vocation d’intérêt général. Quant à leurs sources de renseignement, elles sont le plus souvent, mais pas toujours, ouvertes : presse spécialisée, interaction entre pairs et avec les réseaux de stakeholders qui leur correspondent.
On remarquera que, du point de vue des principes fondamentaux, l’activité d’analyse et de prévision dans les sciences morales et politiques – mieux vaut dire ici explicitement : d’analyse, de renseignement (ou d’information) et de prévision – s’apparente à l’activité scientifique, celle des sciences « dures », mais aussi des sciences « molles ». Je pense par exemple à l’économie où, comme je l’ai déjà dit, la tendance n’est plus – comme chez Keynes de la théorie générale de l’emploi, de l’intérêt et de la croissance ou chez les théoriciens de l’équilibre et de l’optimum – à la richesse d’une grande théorie unificatrice, mais à la constitution et utilisation de petits modèles où l’intuition et le « jugement », donc la finesse, jouent le rôle prépondérant. Beaucoup d’erreurs de prévision sont la conséquence de cadres analytiques, ou de modèles, mal conçus (et insuffisamment imaginatifs), décalés par rapport à l’évolution de l’environnement (syndrome de la ligne Maginot) et insuffisamment documentés. Et dans tout modèle bien conçu (explicitement ou implicitement), il devrait y avoir place pour les cygnes noirs ! À cet égard, il est vraisemblable que l’évolution des technologies de l’information fera émerger des méthodes nouvelles susceptibles dans certains cas de suppléer l’intuition. La capacité technique de traiter rapidement d’immenses quantités de données (Big Data) ouvre d’ores et déjà la possibilité d’identifier à l’avance des événements possibles sinon probables (une manifestation « spontanée » contre telle ou telle cible par exemple), auxquels personne n’aurait eu de raison de songer, événements qui n’auraient aucune place dans un banal modèle probabiliste. Ce qui est en cause en effet, c’est la conception du modèle, et non pas, comme le prétend l’auteur du Cygne noir, la loi de Gauss en tant que telle. Or l’imagination des gens « normaux » et leur capacité de remettre en question leurs schémas mentaux (mindsets) sont d’autant plus bornées qu’ils doivent résister en permanence contre le bruit de fond des informations erratiques plus ou moins intentionnées qui circulent à travers les médias (y compris sociaux !), en particulier les rumeurs dont les effets peuvent être désastreux. On peut penser par exemple au stress des marchés financiers dans certains épisodes de la saga de la crise de l’euro, ou plus exactement de la crise de la gouvernance de l’euro. Aucune prévision sérieuse ne peut résulter de pareille soupe, sauf peut-être pour les rares esprits suffisamment fins pour filtrer instinctivement ce qui va corroborer ou au contraire infirmer un modèle pertinent et non moins intuitif.
Insistons aussi sur le fait que, dans tous les cas où elles sont conçues pour être utiles, l’analyse et la prévision sont organisées comme des outils praxéologiques, donc en vue de la prescription, ceci dans le cadre d’objectifs tactiques ou stratégiques. En remontant la chaîne, on voit qu’il faut partir de ces objectifs (ceux d’un État ou plutôt de telle ou telle partie d’un État, d’une entreprise, d’un think tank et plus généralement d’une unité active) pour cadrer toute activité d’analyse et de prévision : à qui s’adresse-t-on, à quelle fin, etc.
Je reviens maintenant au concept le plus large du politique, de chose publique, qui concerne au sens large toutes les unités actives, ou systèmes d’unités actives, et qui s’oppose à celui de chose privée, relative aux personnes physiques. Insistons sur le fait qu’une unité active n’est pas nécessairement une unité politique, et qu’elle peut ne comprendre que deux personnes physiques (un « couple »). En conséquence, notre approche du concept de politique est plus contrastée que l’opposition traditionnelle entre chose publique – relative à une unité politique, le plus souvent un État –, et chose privée – relative à une unité active (à la limite une seule personne physique) non politique. Ici encore, l’échelle d’observation importe. La plupart des unités actives peuvent s’analyser comme des systèmes de sous-unités actives et ainsi de suite, un peu comme en physique un atome se résout en électrons et nucléons (protons et neutrons), ces derniers se composant de quarks, toutes ces particules interagissant grâce à la médiation d’autres particules appelées bosons. À un premier niveau, l’analyse peut et à vrai dire doit s’effectuer avec l’esprit de géométrie. Ainsi, dans tout État, peut-on distinguer le système des trois branches de gouvernement (exécutif, législatif et judiciaire), chacune de ces branches constituant un sous-système d’unités actives (par exemple, la présidence, les secrétariats d’État et autres agences à caractère ministériel dans le cas des États-Unis) qui lui-même est un système de sous-systèmes. La présidence est elle-même un organisme complexe, avec par exemple le National Security Council qui s’analyse en sous-systèmes et ainsi de suite. La « science politique » se fixe parmi ses tâches d’identifier, de décrire et d’analyser ces enchevêtrements de systèmes, pour les unités politiques, et d’élaborer des concepts et des modèles platoniciens pour tenter d’en saisir la structure, c’est-à-dire l’essence ou les invariants . La « science du management » procède de même pour le monde des entreprises, la « criminologie » pour celui des unités actives criminelles, etc. Ainsi parvient-on à construire intellectuellement une géométrie du politique dont l’utilité pratique est trop évidente (compréhension des « usines de fabrication des décisions » par exemple) pour qu’il soit nécessaire de s’y attarder.
Mais à s’en tenir à ce type d’analyses, on s’interdirait d’expliquer ou même de voir comment le cardinal de Richelieu a survécu à la « journée des dupes » le 11 novembre 1630, ce qui a eu une importance déterminante sur le cours de l’Histoire de la France, comment Robespierre est tombé ou au contraire le coup d’État du 18 Brumaire a réussi, et tant d’autres grandes ou petites histoires décisives des États mais aussi du monde des entreprises ou de la pègre, qui furent ou sont autant de cygnes noirs ou de bifurcations dans la chaîne des événements. Si d’ailleurs, après la mode du marxisme ou l’époque de l’École des Annales, en France, on a retrouvé le goût de la biographie, c’est peut-être en raison du besoin de comprendre les singularités et pourquoi l’Histoire (au sens large) n’est pas déterministe, alors que l’illusion du déterminisme rétrospectif est l’un des biais les plus naturels de l’esprit. À la limite, certains phénomènes microscopiques même les plus marquants de l’Histoire ou plus généralement de toute histoire ne pourraient avoir été anticipés qu’en ayant été capables de « modéliser » par un labeur guidé par l’intuition le fonctionnement cérébral de telle ou telle personne physique, ou, plus difficile encore, l’interaction entre quelques cerveaux exceptionnels. Pareil fonctionnement, ou pareilles interactions, sont éminemment inscrits dans une durée bergsonienne concrète, certes parfois très courte, et ne se laissent donc pas saisir à travers des représentations « cinématographiques » toujours pour parler comme Bergson. Celles-ci travestissent la notion de durée, dont elles effacent l’essentiel, c’est-à-dire la création. Tout juste peut-on tenter de reconstituer ces événements uniques a posteriori, comme peuvent le faire des historiens ou parfois des romanciers pourvus d’une intuition hors normes. Je m’appuierai à cet égard sur Stefan Zweig, qui fut toujours fasciné par les performances extrêmes des forces de l’esprit. Ce n’est pas sans raison que cet auteur, frappé par des remarques de Balzac, avait choisi d’écrire une biographie de Joseph Fouché, présentée « comme utile et très actuelle [son ouvrage date de 1929] contribution à la psychologie de l’homme politique », ou encore « comme une contribution à une étude biologique encore inexistante et pourtant très nécessaire, du diplomate, de cette race d’esprit qui n’a pas encore été complètement examinée et qui est la plus redoutable de notre univers ». Zweig va même jusqu’à écrire de ce grand criminel (je me réfère à Chateaubriand, décrivant Talleyrand appuyé sur le bras de Fouché : « le vice appuyé sur le crime ») qu’il fut « le plus remarquable de tous les hommes politiques ».
Voilà le grand mot lâché : homme politique. Quand on regarde « la politique » avec un grossissement de plus en plus fort (comme on parle du grossissement d’une loupe ou d’un microscope), on constate que l’approche « géométrique » échoue à représenter les phénomènes – humains pour ce qui nous concerne ici – à la racine des bifurcations et autres cygnes noirs. Voir par exemple le cas des attentats du 11 septembre 2001. Il faut affronter ce fait, et compléter la définition générale du politique (au masculin) comme domaine de la chose publique par une autre, d’un autre ordre, et qui vise à capter l’essence de l’homo politicus : la politique (au féminin) et, dans la réalité vécue dans la durée bergsonienne de la chose publique, tout ce qui n’est pas d’ordre géométrique. Cela vaut au niveau d’un État ou de toute subdivision d’un État, d’une entreprise, etc. Pour toute unité active, les circonstances permettent à certaines personnes physiques d’exercer une influence ou un pouvoir critique à certains moments, au-delà de toute réalité juridique ou fonctionnelle. On trouve dans cette catégorie les personnages les plus remarquables de l’Histoire, mais aussi du monde de l’entreprise ou de la finance, de la religion, de la criminalité (car ce dont nous parlons ne relève pas du bien ou du mal)… Tous ces personnages ont en commun une capacité unique de voir et d’anticiper des situations complexes, c’est-à-dire échappant à l’esprit de géométrie. Ils ont la capacité de « changer le monde ». Balzac écrivait à propos de Fouché : « Cet homme au pâle visage élevé dans les dissimulations monastiques […] avait lentement et silencieusement étudié les hommes, les choses, les intérêts de la scène politique. » Il nous est présenté comme un animal au sang froid, pourvu en toute circonstance d’un masque impénétrable, dépourvu de tout sens de culpabilité, d’une amoralité absolue, doté d’une intuition extraordinaire des situations et de leur devenir, et qui en conséquence ménage ses positions pour toujours finir par tomber du bon côté, c’est-à-dire de la majorité, quelle qu’elle soit.
Au niveau de grossissement le plus fort qui nous soit accessible, au sein d’une unité active particulière, on peut identifier un petit nombre d’hommes ou de femmes politiques qui sont avec les autres dans des relations profondément asymétriques, dont l’art est tout en finesse, et dont la compréhension par les « géomètres » peut être difficile sinon impossible en temps réel. Balzac célébrait en Fouché « l’un de ces personnages qui ont tant de faces et tant de profondeur sous chaque face, qu’ils sont impénétrables au moment où ils jouent et qu’ils ne peuvent être expliqués que longtemps après la partie ». En ce sens, les grands hommes politiques – bénéfiques ou maléfiques – sont comme les grands artistes ou les grands découvreurs : ils sont uniques, et donc imprévisibles, sauf pour des observateurs dont la finesse confinerait au don de la voyance. Il n’y a pas que le nez de Cléopâtre qui puisse changer la face du monde. Voilà pourquoi on doit toujours se préparer psychologiquement et donc pratiquement à l’émergence possible de cygnes noirs et s’il faut se garder de tout attendre de l’esprit de finesse, il est encore moins sage de s’en remettre exclusivement à l’esprit de géométrie, ce qui n’empêche nullement d’admirer ses œuvres, jusques et y compris dans les sciences morales et politiques.

La pensée et l'action