mercredi 17 juillet 2013

La domination par les astres. Ou : De l'avenir géopolitique des exoplanètes


« Gouverner, c’est prévoir » : à ce lieu commun venu du plus vieux fonds proverbial, la volonté de domination par l’art de la prédiction exacte et calculée, projet déterministe s’il en est, aura insufflé une nouvelle vie. Fruit des succès de l’encore jeune astronomie copernicienne et képlérienne, l’idée maîtresse de Laplace, celle d’un univers de causes et d’effets intégralement calculables, donne, au début du XIXe siècle, légitimité mathématique à une antique image du gouvernement du monde née au sommet des ziggurat chaldéens et sous les pyramides égyptiennes : qui perce la trajectoire des astres dicte leurs lois aux hommes. Kant ne pensait pas autrement, et Cournot non plus. Au moment de dégager les principes de la cité idéale, Socrate remarque : « As-tu déjà remarqué que ceux qui sont nés calculateurs saisissent rapidement presque toutes les sciences, et que les esprits pesants, lorsqu’ils ont été exercés et rompus au calcul, à défaut d’autre profit, en retirent tous au moins celui d’accroître la pénétration de leur esprit ? » (La République, 526b, traduction Chambry). C’est sur ces « calculateurs nés » que le philosophe roi fonde l’empire des lois : le géomètre au pouvoir tire sa science et sa légitimité de l’observation méthodique des astres. Ce pythagorisme nous gouverne aujourd’hui encore : l’antique temps calendaire qui précéda et inspira les arts du calcul résultait de la mesure des durées, et toute mesure des flux de temps revient à les étalonner en les exprimant par des unités spatiales (le cycle des saisons que les premiers géomètres spatialisent dans la figure du cercle, ou le temps mécanique des horloges, ou l’écriture de la musique : autant de projections mathématiquement  réglées de la durée sur l’étendue euclidienne où, par équivalence, l’esprit la « calcule » parce qu’il a pu d’abord la morceler en la spatialisant, rapporter le continu et le multiple des durées au discontinu et au segmentaire des intervalles et des parcelles).

Physiques ou humaines, nos sciences du différentiel et du sériel recherchent elles aussi leur validité dans l’idée de « loi », par quoi elles entendent la récurrence régulière d’un événement typique – effet inaltérable d’un agencement enchaînant de façon prévisible un processus (une transformation) et une structure (un invariant). Cet idéal d’explication et de construction du réel doit l’essentiel de son autorité à l’astronomie, reine des sciences nées aux Temps modernes et sous les Lumières : si nos universités transmettent aujourd’hui des « sciences économiques » ou des « sciences sociales », elles le  doivent à la conviction déterministe selon laquelle les révolutions et les périodes prévisibles des corps célestes entrevus au télescope par les premiers astronomes mathématiciens matérialisent à la perfection, tel un principe universel, les cycles cachés de tous les règnes organiques et inorganiques. Jusqu’à Einstein inclus, le cycle astronomique aura magistralement illustré et soutenu l’idée de fonction mécanique, parce qu’il schématise un schéma déterministe pur : une horlogerie – métaphore banale du Dieu grand Horloger une fois l’imago galiléenne et copernicienne devenue bien commun –, mais une Horloge qui, ne devant rien à la main de l’homme, servira donc de paradigme universel et idéal, de sanctuaire éminent à tous les projets de rationalisation intégrale de l’existence humaine. (Avec la récente biologie génétique, le dispositif a changé, non pas l’intention du déterminisme inconditionnel théorisé par Laplace : les « sciences de l’information » rêvent elles aussi d’un traitement unifié du vivant et de l’inerte, d’une interaction ou d’une fusion de l’organique et du cybernétique.)

On lira donc avec intérêt l’article de Ron Cowen publié par La Recherche de juin dernier (à la suite de sa première parution dans la revue américaine Science). D’ici peu, y apprend-on, un immense nuage interstellaire de gaz G2 approchera le trou noir situé au centre de notre galaxie, la Voie lactée, qui l’absorbera. Événement considérable ! De son observation, les astrophysiciens attendent deux bénéfices : une analyse spectrale de la composition physico-chimique de ce nuage, une vérification de la théorie de la relativité générale (grâce à la propriété des trous noirs : altérer la courbure de l’espace-temps, donc la vitesse de la lumière et « filmer » alors la disparition du nuage « mangé » par le trou noir). Technique subtile envisagée pour cette phase : discerner et jauger, au fil de l’approche du trou noir par le nuage qui navigue vers lui pour finalement s’y disloquer, les contre-effets d’attraction gravitationnelle d’une certaine étoile en particulier, parmi toutes celles situées dans le champ hertzien ciblé – spécifiques, ces contre-effets devraient permettre des mesures fiables, à haute valeur pronostique. En somme, il s’agit, dans ce champ, d’isoler l’atypique qui est mesurable – les ondes émises par cette étoile suspecte et leur impact sur le nuage – du normal qui n’est pas mesurable – les paquets d’ondes dus à l’interaction du trou noir et de la poussière stellaire diffuse qui gravite aux alentours. Technique de filtrage qui n’est pas sans rappeler le principe et la finalité du repérage radar, « provoquer » des corps étrangers à se signaler dans un champ hertzien bien défini : dans un champ de longueurs d’onde ou de fréquences connues, toute longueur ou fréquence inconnue prend alors valeur précise de signal d’alerte du fait même qu’elle est incongrue.

Pour ce faire, les astrophysiciens comptent sur un modèle statistique : utiliser les logiciels de calcul des « séries chronologiques qui permettent de prévoir la volatilité des marchés boursiers » (écrit Cowen). Le rapprochement vaut comparaison, et comme toute procédure de mesure il s’effectue par projection : de même qu’on enregistre les variations des cours des bourses censées révéler la présence de valeurs indésirables (facteurs de baisse), donc adverses au processus général d’évaluation des titres et des fonds (sa finalité en durée longue, c’est bien évidemment la hausse, qui manifeste et confirme le bon fonctionnement attendu, l’apparition régulière de valeur ajoutée signifiant « croissance » pour la raison économique), de même pourrait-on mesurer les tensions électromagnétiques entre matière – ici, sa phase gazeuse – et antimatière (le trou noir). Dans ce raisonnement analogique, au krach (effondrement des valeurs boursières) équivaut l’implosion du nuage G2 absorbé par le trou noir, par ressemblance avec la destruction de valeur (donc de capital), comme si l’offre qui diminue faute de demande à la corbeille signalait ainsi qu’il n’y a plus d’attente, plus de liaison entre cambistes – elle dessine alors, sur les écrans des traders, l’encéphalogramme en chute libre des grandes crises boursières. Le fading stade suprême du trading ! Le stock intoxiqué par le flux, et l’inverse aussi bien : catalepsie, stade létal, extase de l’économie politique et numérique ! (« Extase » ? comme celle des mystiques, l’extase de l’économie politique et numérique manifeste l’implosion de l’espace-temps, l’indistinction de l’espace et du temps confondus parce que suspendus, leur plus court circuit, leur psychose.)

Or cette modélisation audacieuse des explorateurs du trou noir et du nuage de gaz ne prolonge pas simplement la vieille alliance entre l’astronomie des débuts et les sciences sociales. Car l’outil de comparaison qu’utilisent ces nouveaux argonautes n’est pas déterministe, mais probabiliste (puisque statistique) – différence pour le moins décisive, et dont la portée dépasse largement leurs intentions ; ils exploitent avec astuce la valeur statistique d’une anomalie (le signal incongru), mais surtout ils prennent le risque d’une analogie entre interaction physique et péréquation marchande. Comment raisonnent-ils au juste pour faire du marché des valeurs une image approchée du champ hertzien ? Comment réussissent-ils à comparer les années-lumière de l'univers en expansion avec les nanosecondes de la spéculation en bourse ?

Nous comprendrons l’enjeu de la manœuvre si nous élucidons le genre de risque entraîné par la procédure. Tout statisticien procède « par ressemblance » puisqu’il compare des formes similaires des « distributions de grands nombres de mesures, que celles-ci portent plusieurs fois sur un même objet, ou une fois sur plusieurs objets » (A. Desrosières, La Politique des grands nombres, 1993, p. 95). Il n’a pas à se demander pourquoi ni comment se produisent de telles « ressemblances » – à cela même tient le risque, risque pour le moins considérable puisque le savoir-faire des statisticiens présuppose leur ignorance de principe quant à la nature intrinsèque de ce qu’ils mesurent. Leur objet, c’est le Grand Nombre, et non pas ce dont il énonce (et dissimule) le nom en le dénombrant : en résumant son identité à sa probabilité. Au fond, nous retrouvons là la même dénaturation que celle commise par les techniques de mesure du temps : en le spatialisant, elles en effacent la nature intrinsèque de durée. La mesure statistique des fluctuations (boursières par exemple) ne procède pas autrement : elle projette sur la surface d’un graphisme ce qui est durée pure. On peut certes dire que le temps « ressemble » alors à l’espace : mais ce qui admet ainsi une évidente signification technique est tout simplement absurde pour l’esprit, qui veut connaître, mais sans confondre connaissance et domination – connaître non par comparaison, mais par raison. À ce point de la réflexion, on touche donc au moment où les chemins de la science et ceux de la technique bifurquent et où il faut prendre congé de Pythagore, des télescopes et des logiciels si l’on veut approfondir le travail de pensée.

Que l’astrophysique ne soit plus déterministe, nous le savions déjà (du vivant d’Einstein déjà, le déterminisme se savait menacé). Que la mathématisation des sciences économiques ait progressé au point de pouvoir fournir, par analogie, des modèles de computation aux sciences de la nature, voilà en revanche le plus significatif et le plus nouveau – le plus actuel. (Il ne serait pas difficile aux astrophysiciens, en effet, de se souvenir que les paniques boursières n’ont pas de cause puisqu’elles en ont plusieurs – et jamais les mêmes – et que tout champ statistique, comme tout champ hertzien, est susceptible de brouillage par pollution ou saturation. Eh bien non, ils écartent ces raisonnements déterministes, et optent pour l’hypothèse moyenne et probabiliste de la perception et du traitement statistiques. Pourquoi ?)

L’événement caché dans cette nouveauté concerne pourtant moins la question de l’alliance entre les sciences dites physiques et celles dites humaines que celle de leur autorité : les sciences avaient servi de référence à des modèles de pouvoir, par exemple celui des ingénieurs chez les positivistes, parce qu’elles étaient déterministes et tant qu’elles le restaient – et pour cette seule raison. Devenant probabilistes comme c’est le cas de nos jours, elles vont perdre cette utilité, ainsi que l’appréhendait déjà Ilya Prigogine. Certes, c’est grâce aux modèles statistiques que, comme l’escomptaient Condorcet et les premiers statisticiens, on peut « mieux » prévoir – mais, telle la plus belle femme du monde, les techniques prédictives numériques ne peuvent donner au pouvoir que ce qu’elles ont, et en tout cas pas le pouvoir de décider, en quoi consiste, en substance, toute autorité légitime. Décider, en effet, c’est décider d’en finir avec le possible et passer du probable à l’irréversible. Que des astrophysiciens du plus haut niveau forcent des arcanes cosmologiques en y projetant le temps réel et spatialisé des places financières, en y introduisant donc l’Indécidable dont l’entendement probabiliste a fait sa finalité spécifique (à commencer par la théorie des jeux), ne peut donc avoir qu’une seule signification, contenue dans les implications mêmes de leur procédure ici décrites : dans notre espace-temps, le temps l’emporte désormais sur l’espace (il renverse la vieille domination euclidienne et mécanique de l’espace sur le temps), et c’est l’événement en cours de cette subordination qui explique le surgissement de l’Indécidable à l’horizon du pouvoir et du savoir légitimes. L’Indécidable provient en droite ligne de la prise du pouvoir par la raison statistique. Pour elle, l’heure du désenchantement commence de sonner : grâce à la computation numérique des durées, elle pensait étendre l’emprise du déterminisme à l’ensemble de la vie humaine, et, pour ce faire, avait généralisé les procédures de spatialisation de la durée. Comme tout processus qui atteint son apogée, celui-ci aussi se répète en s’inversant (règle diabolique des réplications ironiques projeté sur le temps pour l'immobiliser dans l'étendue et l'y segmenter, l'espace nous revient en boomerang, mais déformé et disloqué par sa fonction rythmique de capteur statistique de durées, sous la figure creuse de l'écran, pure surface, bulle de transparence sans substance) : le temps, autant vaut dire l’Imprévisible même, la puissance insensée de l’Inattendu, le temps commence de déformer et de pervertir l’espace où nous habitons, et que nous traversons de plus en plus vite sans savoir ni vouloir savoir où nous allons.

J.-L. Evard, 17 juillet 2013


Aucun commentaire: