« Gouverner, c’est
prévoir » : à ce lieu commun venu du plus vieux fonds proverbial, la
volonté de domination par l’art de la prédiction exacte et calculée, projet
déterministe s’il en est, aura insufflé une nouvelle vie. Fruit des succès de
l’encore jeune astronomie copernicienne et képlérienne, l’idée maîtresse de
Laplace, celle d’un univers de causes et d’effets intégralement calculables,
donne, au début du XIXe siècle, légitimité mathématique à une
antique image du gouvernement du monde née au sommet des ziggurat chaldéens et
sous les pyramides égyptiennes : qui perce la trajectoire des astres dicte
leurs lois aux hommes. Kant ne pensait pas autrement, et Cournot non plus. Au
moment de dégager les principes de la cité idéale, Socrate remarque :
« As-tu déjà remarqué que ceux qui sont nés calculateurs saisissent
rapidement presque toutes les sciences, et que les esprits pesants, lorsqu’ils
ont été exercés et rompus au calcul, à défaut d’autre profit, en retirent tous
au moins celui d’accroître la pénétration de leur esprit ? » (La République, 526b, traduction
Chambry). C’est sur ces « calculateurs nés » que le philosophe roi
fonde l’empire des lois : le géomètre au pouvoir tire sa science et sa
légitimité de l’observation méthodique des astres. Ce pythagorisme nous
gouverne aujourd’hui encore : l’antique temps calendaire qui précéda et
inspira les arts du calcul résultait de la mesure des durées, et toute mesure
des flux de temps revient à les étalonner en les exprimant par des unités
spatiales (le cycle des saisons que
les premiers géomètres spatialisent dans la figure du cercle, ou le temps mécanique des horloges, ou l’écriture de la
musique : autant de projections mathématiquement réglées de la durée sur l’étendue euclidienne
où, par équivalence, l’esprit la « calcule » parce qu’il a pu d’abord
la morceler en la spatialisant, rapporter le continu et le multiple des durées
au discontinu et au segmentaire des intervalles et des parcelles).
Physiques
ou humaines, nos sciences du différentiel et du sériel recherchent elles aussi leur
validité dans l’idée de « loi », par quoi elles entendent la récurrence
régulière d’un événement typique – effet inaltérable d’un agencement enchaînant
de façon prévisible un processus (une transformation) et une structure (un invariant).
Cet idéal d’explication et de construction du réel doit l’essentiel de son autorité
à l’astronomie, reine des sciences nées aux Temps modernes et sous les Lumières
: si nos universités transmettent aujourd’hui des « sciences
économiques » ou des « sciences sociales », elles le doivent à la conviction déterministe selon
laquelle les révolutions et les périodes prévisibles des corps célestes
entrevus au télescope par les premiers astronomes mathématiciens matérialisent
à la perfection, tel un principe universel, les cycles cachés de tous les
règnes organiques et inorganiques. Jusqu’à Einstein inclus, le cycle
astronomique aura magistralement illustré et soutenu l’idée de fonction
mécanique, parce qu’il schématise un schéma déterministe pur : une horlogerie
– métaphore banale du Dieu grand Horloger une fois l’imago galiléenne et copernicienne
devenue bien commun –, mais une Horloge qui, ne devant rien à la main de
l’homme, servira donc de paradigme universel et idéal, de sanctuaire éminent à tous les projets de
rationalisation intégrale de l’existence humaine. (Avec la récente biologie
génétique, le dispositif a changé, non pas l’intention du déterminisme inconditionnel
théorisé par Laplace : les « sciences de l’information » rêvent
elles aussi d’un traitement unifié du vivant et de l’inerte, d’une interaction
ou d’une fusion de l’organique et du cybernétique.)
On lira
donc avec intérêt l’article de Ron Cowen publié par La Recherche de juin dernier (à la suite de sa première parution
dans la revue américaine Science).
D’ici peu, y apprend-on, un immense nuage interstellaire de gaz G2 approchera
le trou noir situé au centre de notre galaxie, la Voie lactée, qui l’absorbera.
Événement considérable ! De son observation, les astrophysiciens attendent
deux bénéfices : une analyse spectrale de la composition physico-chimique
de ce nuage, une vérification de la théorie de la relativité générale (grâce à
la propriété des trous noirs : altérer la courbure de l’espace-temps, donc
la vitesse de la lumière et « filmer » alors la disparition du nuage
« mangé » par le trou noir). Technique subtile envisagée pour cette
phase : discerner et jauger, au fil de l’approche du trou noir par le
nuage qui navigue vers lui pour finalement s’y disloquer, les contre-effets
d’attraction gravitationnelle d’une certaine étoile en particulier, parmi
toutes celles situées dans le champ hertzien ciblé – spécifiques, ces
contre-effets devraient permettre des mesures fiables, à haute valeur pronostique.
En somme, il s’agit, dans ce champ, d’isoler l’atypique qui est mesurable – les
ondes émises par cette étoile suspecte et leur impact sur le nuage – du normal
qui n’est pas mesurable – les paquets d’ondes dus à l’interaction du trou noir
et de la poussière stellaire diffuse qui gravite aux alentours. Technique de
filtrage qui n’est pas sans rappeler le principe et la finalité du repérage radar,
« provoquer » des corps étrangers à se signaler dans un champ hertzien
bien défini : dans un champ de longueurs d’onde ou de fréquences connues,
toute longueur ou fréquence inconnue prend alors valeur précise de signal
d’alerte du fait même qu’elle est incongrue.
Pour ce
faire, les astrophysiciens comptent sur un modèle statistique : utiliser
les logiciels de calcul des « séries chronologiques qui permettent de
prévoir la volatilité des marchés boursiers » (écrit Cowen). Le
rapprochement vaut comparaison, et comme toute procédure de mesure il s’effectue
par projection : de même qu’on enregistre les variations des cours des
bourses censées révéler la présence de valeurs indésirables (facteurs de baisse), donc adverses au processus
général d’évaluation des titres et des fonds (sa finalité en durée longue,
c’est bien évidemment la hausse, qui manifeste
et confirme le bon fonctionnement attendu, l’apparition régulière de valeur
ajoutée signifiant « croissance » pour la raison économique), de même
pourrait-on mesurer les tensions électromagnétiques entre matière – ici, sa
phase gazeuse – et antimatière (le trou noir). Dans ce raisonnement analogique,
au krach (effondrement des valeurs boursières) équivaut l’implosion du nuage G2
absorbé par le trou noir, par ressemblance avec la destruction de valeur (donc
de capital), comme si l’offre qui diminue faute de demande à la corbeille signalait
ainsi qu’il n’y a plus d’attente, plus de liaison entre cambistes – elle
dessine alors, sur les écrans des traders,
l’encéphalogramme en chute libre des grandes crises boursières. Le fading stade suprême du trading ! Le stock intoxiqué par le
flux, et l’inverse aussi bien : catalepsie, stade létal, extase de
l’économie politique et numérique ! (« Extase » ? comme
celle des mystiques, l’extase de l’économie politique et numérique manifeste l’implosion
de l’espace-temps, l’indistinction de l’espace et du temps confondus parce que
suspendus, leur plus court circuit, leur psychose.)
Or cette
modélisation audacieuse des explorateurs du trou noir et du nuage de gaz ne prolonge
pas simplement la vieille alliance entre l’astronomie des débuts et les
sciences sociales. Car l’outil de comparaison qu’utilisent ces nouveaux argonautes
n’est pas déterministe, mais probabiliste (puisque statistique) –
différence pour le moins décisive, et dont la portée dépasse largement leurs
intentions ; ils exploitent avec astuce la valeur statistique d’une
anomalie (le signal incongru), mais surtout ils prennent le risque d’une
analogie entre interaction physique et péréquation marchande. Comment
raisonnent-ils au juste pour faire du marché des valeurs une image approchée du
champ hertzien ? Comment réussissent-ils à comparer les années-lumière de l'univers en expansion avec les nanosecondes de la spéculation en bourse ?
Nous
comprendrons l’enjeu de la manœuvre si nous élucidons le genre de risque entraîné par la procédure. Tout statisticien
procède « par ressemblance » puisqu’il compare des formes similaires
des « distributions de grands nombres de mesures, que celles-ci portent
plusieurs fois sur un même objet, ou une fois sur plusieurs objets » (A.
Desrosières, La Politique des grands
nombres, 1993, p. 95). Il n’a pas à se demander pourquoi ni comment se
produisent de telles « ressemblances » – à cela même tient le
risque, risque pour le moins considérable puisque le savoir-faire des
statisticiens présuppose leur ignorance de
principe quant à la nature intrinsèque de ce qu’ils mesurent. Leur objet,
c’est le Grand Nombre, et non pas ce dont il énonce (et dissimule) le nom en le
dénombrant : en résumant son identité à sa probabilité. Au fond, nous
retrouvons là la même dénaturation que celle commise par les techniques de
mesure du temps : en le spatialisant, elles en effacent la nature
intrinsèque de durée. La mesure statistique des fluctuations (boursières par
exemple) ne procède pas autrement : elle projette sur la surface d’un
graphisme ce qui est durée pure. On peut certes dire que le temps
« ressemble » alors à l’espace : mais ce qui admet ainsi une
évidente signification technique est tout simplement absurde pour l’esprit, qui
veut connaître, mais sans confondre connaissance et domination – connaître non
par comparaison, mais par raison. À ce point de la réflexion, on touche donc au
moment où les chemins de la science et ceux de la technique bifurquent et où il
faut prendre congé de Pythagore, des télescopes et des logiciels si l’on veut approfondir le travail de pensée.
Que
l’astrophysique ne soit plus déterministe, nous le savions déjà (du vivant
d’Einstein déjà, le déterminisme se savait menacé). Que la mathématisation des
sciences économiques ait progressé au point de pouvoir fournir, par analogie,
des modèles de computation aux sciences de la nature, voilà en revanche le plus
significatif et le plus nouveau – le plus actuel.
(Il ne serait pas difficile aux astrophysiciens, en effet, de se souvenir que
les paniques boursières n’ont pas de cause puisqu’elles en ont plusieurs – et
jamais les mêmes – et que tout champ statistique, comme tout champ hertzien,
est susceptible de brouillage par pollution ou saturation. Eh bien non, ils
écartent ces raisonnements déterministes, et optent pour l’hypothèse moyenne et
probabiliste de la perception et du traitement statistiques. Pourquoi ?)
L’événement
caché dans cette nouveauté concerne pourtant moins la question de l’alliance
entre les sciences dites physiques et celles dites humaines que celle de leur autorité : les sciences avaient
servi de référence à des modèles de pouvoir, par exemple celui des ingénieurs
chez les positivistes, parce qu’elles étaient déterministes et tant qu’elles le
restaient – et pour cette seule raison. Devenant probabilistes comme c’est le
cas de nos jours, elles vont perdre cette utilité, ainsi que l’appréhendait
déjà Ilya Prigogine. Certes, c’est grâce aux modèles statistiques que, comme
l’escomptaient Condorcet et les premiers statisticiens, on peut « mieux »
prévoir – mais, telle la plus belle femme du monde, les techniques prédictives numériques
ne peuvent donner au pouvoir que ce qu’elles ont, et en tout cas pas le pouvoir
de décider, en quoi consiste, en
substance, toute autorité légitime. Décider, en effet, c’est décider d’en finir
avec le possible et passer du probable à l’irréversible. Que des
astrophysiciens du plus haut niveau forcent des arcanes cosmologiques en y
projetant le temps réel et spatialisé des places financières, en y introduisant
donc l’Indécidable dont l’entendement probabiliste a fait sa finalité
spécifique (à commencer par la théorie des jeux), ne peut donc avoir qu’une seule
signification, contenue dans les implications mêmes de leur procédure ici
décrites : dans notre espace-temps, le temps l’emporte désormais sur
l’espace (il renverse la vieille domination euclidienne et mécanique de
l’espace sur le temps), et c’est l’événement en cours de cette subordination
qui explique le surgissement de l’Indécidable à l’horizon du pouvoir et du
savoir légitimes. L’Indécidable provient en droite ligne de la prise du pouvoir
par la raison statistique. Pour elle, l’heure du désenchantement commence de
sonner : grâce à la computation numérique des durées, elle pensait étendre l’emprise du déterminisme à l’ensemble de la
vie humaine, et, pour ce faire, avait généralisé les procédures de
spatialisation de la durée. Comme tout processus qui atteint son apogée,
celui-ci aussi se répète en s’inversant (règle diabolique des réplications ironiques – projeté sur le temps pour l'immobiliser dans l'étendue et l'y segmenter, l'espace nous revient en boomerang, mais déformé et disloqué par sa fonction rythmique de capteur statistique de durées, sous la figure creuse de l'écran, pure surface, bulle de transparence sans substance) : le temps, autant vaut dire l’Imprévisible
même, la puissance insensée de l’Inattendu, le temps commence de déformer et de pervertir l’espace où nous habitons, et que nous traversons de plus en plus
vite sans savoir ni vouloir savoir où nous allons.
J.-L.
Evard, 17 juillet 2013
Aucun commentaire:
Enregistrer un commentaire