quinta-feira, 5 de outubro de 2017

Une question d’inspiration prigoginienne : qu’est-ce que l’énergie, la force attractive et l’entropie?



“dans la physique actuelle,
nous ne savons pas ce que c’est l’énergie” (Feynman)
“qu’est-ce que la gravité? [...]
quel est le mécanisme intrinsèque qui l’origine?
[...] Newton n’en a pas élaboré d’hypothèse
  personne après lui n’a proposé aucun mécanisme”
(Feynman)


Pré-scriptum : l’auteur de ce texte travaille en philosophie depuis environ 60 ans, mais sa première formation a été en ingénieur civil, à l’I. S. T. de Lisbonne (1956).


1. Une question que l’on peut poser à la science qui s’en occupe, la Physique, c’est celle de savoir qu’est-ce que l’énergie ?; on sait qu’elle se conserve dans l’univers et se dégrade, selon les deux principes de la Thermodynamique, mais aussi qu’elle est susceptible de constituer des stabilités instables (Prigogine), secret entropique de l’évolution des vivants et de l’histoire des humains[1]. Dans un texte cité au §2, le physicien Nobel réputé Richard Feynman disait que  “dans la physique actuelle, nous ne savons pas ce que c’est l’énergie” (p. 95). Il faudra donc questionner la Physique et la Chimie avec des yeux instruits par Prigogine, allant au-delà de son propos qui a manqué d’une philosophie adéquate. Toutefois interrogeons d’abord le mot lui-même que le physicien anglais Thomas Young est allé chercher en 1807 au vocabulaire philosophique d’Aristote pour remplacer les forces vives” des physiciens classiques. La pair dynamis / energeia répond dans sa Physique à deux situations du mouvement, de l’altération d’un vivant, animal ou humain : dunamis, celle qui précède le mouvement mais correspond à ce qu’il en a déjà la capacité, la ‘puissance’ (traduction habituelle) ou possibilité, ‘il peut’ (verbe dunamai, pouvoir) changer, ayant y compris la force de ce changement (d’où la ‘dynamique’ newtonienne en tant que théorie des forces) ; en-ergeia, la situation qui correspond à ‘l’acte’ (traduction habituelle) de ce mouvement effectué, (-ergon) travail sur soi (en-) ; puisque mouvement est dit kinêsis, d’où ‘cinétique’, on comprend que les physiciens soient allés chercher cette paire aristotélicienne pour dire les énergies potentielle / cinétique. Il y a toutefois une différence entre les deux physiques, car chez Aristote il s’agit de la substance (ousia) elle-même qui se meut, s’altère, tandis que dans notre physique il s’agit de la différence mesurée, relative à l’énergie, entre deux positions de graves, par exemple dans le champ de la gravitation : dans un barrage, la différence entre le niveau de l’eau du réservoir et la position plus baisse de la turbine, c’est l’énergie potentielle, tandis que l’énergie cinétique est celle du mouvement de l’eau tombant effectivement du premier niveau vers le second.

La labeur dans la connaissance scientifique
2. On pourrait penser que, antérieure à la vie, la matière dont s’occupent Physique et Chimie, la matière ‘vraiment substantielle’, connaît une stabilité authentique sans des oscillations instables. C’est d’ailleurs ce que Prigogine semble avoir pensé lui-même quand il parle de la stabilité des atomes de notre univers tiède”, comme s’il postulait qu’ils étaient inaccessibles à la ‘production d’entropie’ qu‘il avait découvert dans la chimie du métabolisme cellulaire (et lui a valu le Nobel de Chimie en 1977) et cherchait par la suite dans des turbillons et d’autres phénomènes plus ou moins marginaux, tout en disant parfois que sa nouvelle conception était destinée à l’ensemble de la Physique. Pour venir à la question, on peut avoir recours au fameux texte Leçons sur la Physique du Nobel Richard Feynman[2], dont la pédagogie a tellement innové que l’on pourra peut-être le lire dans sa logique de 1961-62, sans tenir compte des découvertes postérieures, croyant que les ‘fondements’ de la Physique dont il s’occupe n’auront pas changé ni qu’il y eût des textes de divulgation si clairs.
3. Pour adapter la perspective entropique de Prigogine au-delà du métabolisme celulair, à la Biologie animale et aux sciences relatives aux humains, il a fallu dénoncer le préjugé aristotélicien substantialiste dans les paradigmes de ces sciences : ‘corps propre’ dans les Biologies au lieu d’être au monde, ‘population d’individus’ dans la constitution des sociétés au lieu des paradigmes de leurs usages dans les unités sociales. La question dès lors est celle de savoir si l’on peut, et comment, ‘dé-substantialiser’ les atomes et les molécules qui constituent les graves et les astres. En lisant le texte de Feynman, ceci impliquera privilégier le motif du champ de forces attractives sur les corps ou les atomes qui y sont assujettis.  Il s’agit d’un motif paradoxal en Physique, puisque, si l’on prend l’exemple du système solair et de ses planètes, ce sont les astres qui s’attirent réciproquement, le soleil au foyer principal, le champ n’étant ‘rien’ de substantiel, que le jeu entre elles de ces forces d’attraction, tout en étant ce jeu qui soutient le système dans sa stabilité, reconnue depuis les anciens Égyptiens et Chaldéens. Ce paradoxe ne permet pas de décider entre les astres et le champ, puisque celui-ci n’existe pas sans eux, mais c’est ce qui décide le préjugé substantialiste que les empiristes ont hérité d’Aristote à leur insu, en allant au champ ‘après’ les astres, à partir de leurs substances et masses. Pour poursuivre, il nous faudra poser une question épistémologique préalable : pourquoi le laboratoire est indispensable à la Physique ?
4. Ce que cherche le laboratoire, c’est l’alliance entre savoir et technique, entre définition et labeur, il cherche à éprouver les définitions et arguments philosophiques hérités des Grecs et des Médiévaux[3]. Ce qu’il fait est 1) enlever un phénomène donné de sa scène de circulation aléatoire, 2) lui déterminant (délimitant, définissant) le mouvement en des conditions de détermination par des techniques de mesures appropriées, 3) à cette connaissance acquise devant se suivre un mouvement de restitution théorique du phénomène connu à la scène d’où il a été enlevé, puisque c’est la ‘réalité’ extra-laboratoriale que, par des étapes laboratoriales, la théorie cherche à connaître. De même qu’en géométrie et en astronomie, les chiffres mathématiques, entre équations et mesures, rendent possible une exactitude plus grande que celle des définitions en langues structuralement polysémiques (ce que la mathématique n’est pas) : cette exactitude – dans des marges d’erreur, elles se répètent telles quelles dans les autres laboratoires – correspond à une stabilité que les philosophies n’ont jamais réussi ni d’ailleurs les théories scientifiques elles-mêmes qui interprètent les résultats des expérimentations laboratoriales. C’est que celles-ci ont un point faible, elles sont fragmentaires (comme tout problème d’algèbre classique, chacun avec son équation), elles ne rendent possible de connaître avec exactitude laboratoriale à chaque fois qu’un aspect déterminé du mouvement d’un phénomène ; c’est à la théorie, héritière de la philosophie, que revient l’unification de la connaissance, toujours approchée, instable donc, puisque un ‘phénomènes entier’ ne peut venir au laboratoire et reste indéterminé dans sa scène aléatoire[4]. Exemple fameux : Newton a découvert les équations de la force de gravité sans imaginer celle-ci, ce que l’on ne sait pas encore selon Feynman, ni l’énergie ni le pourquoi de l’inertie.
5. Une question décisive du laboratoire peut être illustrée à partir de la fameuse expérience de Galilée démontrant le mouvement uniformément accéléré avec une petite balle roulant par la rainure d’un plan incliné. N’ayant pas encore des horloges capables de mesurer ces temps, Galilée utilisa un sceau d’eau qui s’écoule pendant le temps de la chute et qu’il mesure ensuite, les différences et proportions entre les poids donnant les différences et proportions entre les temps[5]. Mesurer le temps en grammes d’eau ou en secondes, c’est pareil, le physicien ne sait expérimentalement que des différences, pas des ‘substances’ ; sur le temps, il définit et argumente, en faisant de la théorie, c’est-à-dire, de la philosophie ; il faudra dire le même de l’espace, de la masse, de la force, de l’énergie, de l’intensité de l’électricité, comme atteste la conventionnalité (arbitraire) des ‘conventions’ qui définissent les unités des diverses ‘dimensions’ (ce mot souligne qu’en physique on ne travaille que sur des mesures). Les théories évoluent historiquement, tandis que les expérimentations, hors de la précision des techniques de mensuration, continuent valables : par exemple, si la physique de Newton a été réélaborée par Einstein pour des phénomènes à vitesse proche de celle de la lumière, elle continue valable scientifiquement face aux vitesses de la majeur des phénomènes d’ingénierie courante sur terre. Or, avec les techniques de mensuration, c’est la technique qui est entrée dans le noyau des sciences physiques et (bio)chimiques, c’est pourquoi elles aient comme effet des inventions techniques les plus diverses, témoignant ainsi de la stabilité de ces sciences, tandis que les scientifiques discutent de leurs théories, témoignant donci de leur instabilité : leur grand problème est justement le 3) du paragraphe antérieur, le geste de restitution théorique du savoir fragmentaire acquis laboratorialement sur le phénomène, restitution à la scène aléatoire d’où il a été enlevé, hors du laboratoire donc, du savoir sur le phénomène entier, puisque c’est sur celui-ci que la théorie doit verser. Les techniques laboratoriales sont une part du phénomène d’élévation entropique des sciences exactes, de même que les ‘envies’ des scientifiques qui, dans la définition de ‘paradigme’ de Kuhn, sont ‘attirés’ (attract) [6] et liées aux ‘envies’ des collègues du même paradigme par son apprentissage. A la stabilité correspond le cours normal des paradigmes selon Kuhn, ce que l’on pourrait appeler leur homéostasie laboratoriale, en contraste avec leurs crises, manifestation de l’instabilité en de fortes polémiques, souvent pendant des générations.
6. On peut retourner maintenant à l’héliocentrisme. S’il a été donné au génie de Newton de comprendre la stabilité héliocentrique du système, en termes du principe de l’inertie et de sa découverte des forces de gravité comme attraction des corps dans la raison directe de ses masses et inverse du carré de leur distance – c’est-à-dire qu’il n’y serait pas arrivé sans ces deux motifs fondamentaux de sa Mécanique –, ce qui est étonnant c’est que sa démonstration n’ait pas été faite selon eux mais plutôt selon les lois de Kepler (qui avait utilisé les mesures de Tycho Brahe, anti-copernicien) dans lesquelles ne jouent que les espaces et les temps des parcours des orbites des planètes et les raisons entre les surfaces respectives. Il est parti donc du système en tant que ‘champ’ théorique, Newton ayant d’ailleurs avoué, aveu répété par Feynman trois siècles plus tard, qu’il ne sait pas expliquer ce qui est la force de gravité tant qu’attraction à distance[7], de même que l’on ne sait toujours pas aujourd’hui, selon Feynman, quel est la cause du principe d’inertie (qui tient un corps en mouvement quand aucune force ne joue sur lui, p. 114), dont les effets peuvent toutefois être mesurés et calculés. On peut dire que cette manière ‘non substantialiste’ de démontrer l’héliocentrisme joue bien avec ce que l’on peut déduire de l’affirmation de Galilée en mesurant le temps en unités de poids : il ne connaît que des différences et des proportions entre des mesures de temps, et non pas le temps en soi, non pas les substances (les noumènes, dira le newtonien Kant). Or, il arrive que Feynman procède de façon inverse à Newton quand, pour définir charge électrique, il part des charges vers les champs : nous avons ainsi deux règles : (a) les charges engendrent un champ et (b) les charges en champs restent assujetties à des forces et elles se meuvent (p. 60). 1º les charges, 2º le champ, 3º les forces ! Un autre exemple : au premier chapitre, il argumente longuement sur les atomes de l’eau, vapeur et glace, sans jamais parler des forces électromagnétiques  perdues dans la vaporisation ou gagnées dans la solidification. On retrouve la difficulté dans sa conception de la force comme interaction, celle de la gravité étant une interaction à distance (p. 57), ce qui semble signifier que la force est pensée à la manière des forces habituelles de la Mécanique, du genre balle de billard sur une outre balle de billard, action et réaction, ce que l’on peut appeler ‘forces locales’. Il va jusqu’à caractériser la force électromagnétique par la propriété d’aimer repousser au lieu d’attirer (p. 58), il considère seulement les charges du même signal et non point celles de signal contraire, d’attraction, celles qui justifient que les atomes aient des électrons attirées par les protons, donc  qu’il y ait des molécules et des graves, de la glace, de l’eau et du vapeur ! Or, les forces fondamentales de la Physique, nucléaire, électromagnétique et de la gravité, constitutives des atomes et de leurs noyaux, des molécules, des graves et des astres,  les seules dont il y a des champs, sont des forces attractives, et c’est là peut-être la raison par laquelle nous ne savons pas les imaginer : notre expérience intuitive est celle des ‘forces locales’, tellement importantes dans la Mécanique newtonienne. Étant donnée son attention si forte au détail qui change les perspectives, on ne peut attribuer ces choses comme dues à l’inattention de Feynman, cela ne peut qu’être inscrit dans la force elle-même du paradigme (attractive !) qui institue les physiciens en tant que tels (donc qu’il ne faille pas attendre de leur part une grande attention à ce texte).

Énergie, force et entropie
7. Si les grands génies de la Physique, de Newton à Feynman, ne sont pas arrivés, en partant des ‘substances’, à imaginer ce que sont les forces attractives, l’énergie et l’inertie[8], il me semble qu’il ne s’agit pas d’attendre un futur super génie qui en sera capable. Il est plus sensé penser que c’est le problème qui est mal posé : pourquoi ne pas partir de ces motifs inexpliqués pour mieux comprendre ce que sont les dites ‘substances’ ? Puisqu’ils continuent de ne pas être compris, et sans avoir aucune prétention de les ‘comprendre enfin’, on peut dire que, de même que l’on parle du principe d’inertie, ces motifs pourraient avoir un statut, disons, de principes laboratoriaux, c’est-à-dire, de principes d’une philosophie (d’une théorie) qui doit faire face à l’expérimentation de mouvements, des principes nécessaires à la compréhension de toute analyse de laboratoire[9]. Ces motifs, qui ont structurés depuis le début la Physique classique, en rendant manifeste que ses inventeurs étaient aussi des philosophes habiles, constituent en effet le motif fondamental de champ ; dé-substantialiser, ce sera donc considérer théoriquement forces et énergie comme étant épistémologiquement (non pas chronologiquement !) préalables aux ‘substances’, à l’atome, molécule, grave, astre, charge électrique, les trois forces jouant ensemble et l’énergie étant ce qui, par inertie, se répand sans elles. On ne ‘part’ pas de l’atome, à la façon de Feynman, puisqu’il n’y a pas ‘l’’atome, ‘la’ molécule, ‘le’ grave : avant tout, ce qu’il y a ce sont les champs des astres dans lesquels les trois forces agissent. Dans le cas du système solaire, les orbites des astres sont stables du fait du champ de forces de la gravité qui les retient, champ qui consiste en eux-mêmes en mouvement inerte vis-à-vis les uns des autres[10]. Les graves dont un astre est fait sont eux aussi retenus par le champ des forces de gravité, ainsi que, à leur tour, ces graves sont faits de molécules que des forces électromagnétiques retiennent ensemble, leurs atomes devant, eux, leur stabilité à la rétention de protons et neutrons dans le noyau par des forces nucléaires. Quel est le sens de ce ‘retenir’ quatre fois souligné ? La stabilité de ce qui est retenu et qu’il la perdrait en n’étant plus retenu : l’explosion de l’essence liquide dans le moteur d’une voiture est l’exemple de la fin d’une telle rétention par des forces électromagnétiques et, en conséquence, que ses molécules, devenues gazeuses, se répandent sous forme d’explosion, de même que, mutatis mutandis, les protons et les neutrons des bombes nucléaires qui explosent parce qu’on leur retire les forces nucléaires, et aussi se répandent des photons quand des électrons en mouvement perdent un peu des forces qui les retenaient. Si une fusée envoyée sur la lune ou une sonde sur marte, après avoir quitté le champ de la force de la gravité qui les retenait sur la terre, suivent sans avoir besoin de plus énergie que celle qui les a chassé (on ne pourrait les alimenter dans la stratosphère à égal que jusque lors), elles suivent selon un mouvement inerte, perdues leurs liaisons à des forces quelconques. On peut dès lors définir une force attractive par sa capacité de retenir ce qui, de son inertie à soi, se répand sans limites. Or, ce qui se répand de cette façon, ce qui explose, ce sont des exemples essentiels, non pas n’importe lesquels, d’énergie. Donc, ce que les forces attractives font par leur retenir ou lier, c’est créer de l’entropie positive (Prigogine), c’est-à-dire, de l’énergie interne telle qu’Einstein l’a conçue comme équivalente au produit de la masse par le carré de la vitesse de la lumière[11]. Le mot grec ‘entropie’ (‘se fermer en soi, timidité, honte’) convient à cette ‘énergie’ einsteinienne[12]. Il n’y a pas que les gaz et les liquides, les airs et les mers, qui sont soumis à des vents, des ondes et d’autres tourbillons, les solides sont eux aussi instables selon leur position dans le champ de la gravitation, des rocs soumis à l’érosion, parfois des tremblements de terre ou des volcans nous rappellent que les mots ‘terrible’ et ‘terreur’ sont composés à partir de ‘terre’. Instabilité chimique aussi, toujours que la proximité entre des molécules rende possible des transformations que la Chimie étudie, comment le fer est oxydé, par exemple. Tout ceci est construit entropiquement au sens de Prigogine, et peut donc être détruit, c’est pourquoi il y a de l’entropie au sens de Clausius, c’est pourquoi il y a une ‘histoire’ de l’univers, de la scène de gravitation[13].
8. Explosion, expansion, inertie, ce seront donc des contre-exemples de l’entropie prigoginienne, ce sont des mouvements de sa dégradation, de l’entropie clausienne qui s’accroît. Mais ce sont aussi des exemples de l’étrange mécanique quantique, dont l’étrangeté principale est justement l’instabilité de sa population de particules des électrons sans bride qui partent comme des balles ou comme des ondes (ce sont des exemples de Feynman dans son dernier chapitre), rares étant les particules qui réussissent à persévérer une fois déliées (proton, électron, photon, presque pas d’autres) ; on ne peut même pas parler d’elles en termes de ‘population’, motif qui implique durée, ni ‘monde’ ou ‘univers’ quantique, même pas ‘matière’, puisque ces particules n’existent qu’en tant que lumière, des rayonnements ou du courant électrique, ou alors de façon très fugace en des accélérateurs, des laboratoires. Quand le grand physicien multiplie ses avertissements sur la difficulté de comprendre la gravitation en termes de forces électromagnétiques quantiques, tout en regrettant ce que l’on appelle la non unification des deux grandes théories de la Physique du XXème siècle, relativité et quantique, la question que le lecteur peut poser est celle-ci : quelle est la barrière entre la grande stabilité de notre univers macro et l’instabilité incroyable, ultra chaotique, de cet étrange micro quantique ? Voici une réponse osée : ce sont les champs des forces attractives. D’une part, il n’y a que des particules, fussent des atomes isolés, de l’autre, que des graves et des astres, lesquels, analysés, se révèlent constitués par des atomes et leurs noyaux, par des molécules[14]. Or, comment peut-on dépasser cette barrière ? D’ici vers là-bas, par la désintégration technique des atomes et noyaux (des graves) jusqu’aux particules, en des bombes ou des centrales nucléaires, en des grands accélérateurs. Et de là-bas vers la matière de chez nous ? du big Bang vers les étoiles ? peut-on ‘prendre’ des protons, des neutrons et des électrons et fabriquer des atomes et des molécules ?
9. Si l’on accepte la conception de science physique proposée ci-dessus (§§ 4-5), il faudra conclure que son noyau dur consiste dans les équations correspondantes aux résultats expérimentaux, qui sont les ‘données’ qui doivent ‘vérifier’ dans ces éqautions leurs ‘variables’. Tant que les instruments de mesure ne changent pas, ces équations (variables et données) se vérifient, comme on dit, elles sont ‘vraies’. Galilée et Newton résistent aux physiques du XXème siècle, c’était surtout leur physique que l’on enseignait dans les écoles d’ingénieurs dans les années 50 du siècle écoulé. Interpréter ces équations et ces expériences fragmentaires dans une théorie, avec leurs définitions de concepts et leur argumentation, quelque chose qui doit exister pour créer le laboratoire lui-même, reste toutefois un travail ‘philosophique’ (théorique) de physiciens qui définissent et argumentent à fin de comprendre ce qui arrive au laboratoire, puisque les équations ne touchent pas aux ‘substances’, que (des mesures) des différences et des proportions, comme l’a écrit Galilée[15]. Ceci a des conséquences que les physiciens semblent difficilement comprendre par des raisons philosophiques. Par exemple, que les laboratoires sont irréductibles et donc les équations et les techniques de mensuration de la Physique newtonienne continuent scientifiquement valables, en permettant notamment d’innombrables constructions techniques, même si l’interprétation ‘philosophique’ venue d’autres contextes laboratoriaux (des vitesses très hautes, des distances ultra microscopiques) révise les anciennes interprétations sans toutefois pouvoir les déclarer ‘fausses’, comme Feynman fait parfois de façon péremptoire. S’il le fait, c’est une autre conséquence, ce n’est pas en tant que physicien (puisque les laboratoires respectifs sont irréductibles), mais en tant que philosophe (théoricien d’un autre type de laboratoire). Tout autant ‘philosophique’ sera la prétention que la mécanique quantique soit valable dans toute la réalité extra-laboratoriale, dans notre univers matériel où les vitesses sont ‘petites’ et les longueurs d’onde ‘minuscules’, en raison des dimensions macroscopiques des graves. C’est-à-dire que, étant donnée l’irréductibilité des laboratoires respectifs, l’unification si souhaitée des deux grandes théories du XXème siècle ne pourra être que ‘philosophique’, en incluant la dimension philosophique des sciences. Déjà le philosophe Cornelius Castoriadis évoquait l’antinomie épistémologique formulée par Heisenberg  dès 1935 entre la constatation de la non validité des catégories et des lois de la physique ordinaire dans le domaine microphysique et la démonstration de cette non validité par le moyen d’appareils construits selon les lois de cette physique ordinaire et interprétés selon les catégories usuelles [16]. Ce qui signifie que l’unification des deux physiques, relativité et quantique, ne sera possible qu’en tenant en compte les laboratoires où elles ont été formulées, leurs instruments de mensuration et leurs respectives différences d’échelle[17], et bien aussi la validité laboratoriale de la physique de Galilée et Newton, dont les équations reviennent quand on réduit les facteurs d’échelle (quand v/c tend vers zéro dans les équations relativistes).

L’entropie et la flèche du temps contre le déterminisme
10. Prigogine a découvert le secret de toute évolution, de toute histoire, inventions et découvertes, de ce que l’on appelle la flèche du temps. À partir d’une situation chaotique menaçant de dégradation, implosion ou explosion, entropie du type Clausius, comment peut la vie ajourner la mort : comment, de formes très diverses selon le niveau de ladite réalité, est produite cette entropie, sont créées de nouvelles stabilités avec des règles adéquates à des circulations aléatoires, donc instables. Il a permis de comprendre que l’entropie n’est pas que ‘non’, qu’elle est ‘oui’ et ‘non’, sans les opposer (ce qui a toutefois été sa tendance de pensée), puisque la flèche du temps va d’abord au ‘oui’ et ensuite au ‘non’, la mort après la vie et sa condition (puisqu’on ne survit qu’en mangeant des cadavres).
11. Récapitulons. Il y a deux formes essentielles de matière sur la Terre. Matière inerte en sens classique, faite de l’agrégation de molécules relativement simples et égales pour atteindre des dimensions macroscopiques, des solides, des liquides, des gaz : comment est préservée, de la glace à l’eau et de celle-ci au vapeur, la liaison entre les atomes de l’oxygène et de l’hydrogène, qui se révèle plus forte que la solidité et que la liquidité. L’autre, la matière vivante, qui, pour arriver elle aussi à des dimensions macroscopiques et former des organismes fort variables, est faite de la composition de molécules différentes en leurs fonctions cellulaires et très complexes, à base notamment de carbone, et donc assez instables et demandant d’être souvent refaites, demandant constamment de l’alimentation ; quel contraste avec la stabilité et l’impénétrabilité des atomes, dues à leurs noyaux, impénétrabilité qui les rend irrémédiablement autres entre eux. Ce que la vie a réussi, cela a été d’inventer un nouveau niveau de même, au-dessus de cette altérité empirique radicale : le niveau d’individus différents dans la même espèce. Or, ce fut dans le métabolisme de la matière vivante que Prigogine a découvert une entropie positive.
12. Il faut croire que le savant ait été emporté par l’importance de sa découverte à opposer son entropie à celle de Clausius, à une exclusion des phénomènes entropiques, à opposer ensuite les certitudes qui ont rendu légendaires les découvertes de ses prédécesseurs, dont un de ses derniers titres proclame la fin. Or, les certitudes de la physique classique, qui sont laboratoriales, restent des certitudes, on l’a dit, ne sont pas devenues des lois simplement statistiques : au lieu de dire que ce sont des lois déterministes, on doit dire que ce sont des lois déterminées, c’est-à-dire, déduites dans les conditions de détermination du laboratoire. Le problème, c’est que l’on a toujours pensé que ce qui était valable au laboratoire était automatiquement valable dans ladite réalité, là, où il y a toujours des incertitudes, dues à la confluence d’effets non dominable qui a justement impliqué la nécessité du laboratoire. Or, le motif de scène, c’est clair chez l’automobile, éclaire la question : les règles de détail étudiées par les laboratoires correspondent dans le tout théorique à des situations aléatoires, la machine est construite rigoureusement dans ses pièces pour suivre l’aléatoire de la loi du trafic. De même, l’anatomie de n’importe lequel animal, ‘construite’ selon la cruelle loi de la jungle qui commande de manger l’autre vivant pour survivre. La loi de la gravité vaut toujours sur la terre, mais la trajectoire de chaque grave dépend de sa position aléatoire dans sa scène. Pour ce qui est de la mécanique quantique, le problème de l’incertitude des mesures concernera le fait que la distinction entre laboratoire et scène dehors disparaît dans un accélérateur de particules (instabilité totale, on ne peut plus parler de scène). Que hors du laboratoire règne la contingence, on l’a toujours su depuis Platon tout au moins, lui qui a placé les entités résultants de la définition dans l’éternité céleste, parce que sur terre il n’y avait que de la contingence, génération et corruption. Mais c’est vrai que dans son sillage et du neoplatonisme du IIIème siècle, où le terrible Augustin a bu, un Dieu absolu s’opposait à cette contingence et a marqué les savants européens, croyants ou pas, d’une conception déterministe qui extrapolait les certitudes laboratoriales (que l’astronomie justifiait) : contre ce déterminisme, Prigogine avait raison. Mais il faudrait un autre argument pour un tel combat. Ce que l’on ne savait pas – ce qui n’a pas été écrit de façon à pouvoir être su de la façon généralisée qui convient à ce savoir –, ce que le maître n’a pas su, lui non plus, c’est que les règles (ou lois), les savoirs scientifiques qui ont nourri le récit légendaire des sciences européennes des quatre siècles derniers, ne se réalisent pas substantiellement, on l’a vu chez Galilée,  mais ce sont des règles structurelles de régimes aléatoires de circulation : rigueur de la machine et aléatoire de sa circulation dans le trafic, rigueur de l’anatomie animale construite pour la chasse aléatoire et pour y échapper, rigueur des règles d’une langue qui rendent possible l’entente dans l’aléatoire d’une conversation ou d’une discussion écrite. Que les règles soient pour l’aléatoire n’est possible, à chaque niveau des choses, que de par l’entropie prigoginienne. Comment au-dessus des roches, des mers et des airs, mobiles sans doute mais durant à grande stabilité si les températures ne bougent pas beaucoup, se sont établies des in/stabilités vivantes, éminemment fragiles puisque mortelles, mais faisant de la mort vie, loi de la jungle, en des espèces chaque fois plus complexes qui durent au-delà des générations d’individus mortels qui procréent.
13.  Que les lois scientifiques soient pour l’aléatoire, c’est, je crois, ce qui réhabilite – sans déterminisme et selon la relativité du savoir occidental en tant qu’historique –  leur vérité et celle des sciences exactes des savant européens, contre beaucoup de leurs héritiers eux-mêmes qui croient facilement aujourd’hui que leur ‘vérité’ est provisoire, une erreur en sursis. Les techniques sorties de leurs laboratoires nient ce scepticisme.





[1] La phénoménologie scientifique supposée ici (blogue philoavecsciences) considère quatre grandes scènes historiques : celle de la gravitation (cosmos), de l’alimentation (vie), de l’habitation (sociétés humaines) et de l’inscription (savoir défini occidental), leurs éléments étant caractérisés respectivement par le noyau atomique, l’ADN, les unités sociales disciplinant la sexualité et l’alphabet avec définitio. Le virage phénoménologique par rapport à la philosophie européenne a été le fait de Husserl, Heidegger et Derrida, la différence (phénoménologique, ontologique et avec a) placée avant la substance. On dira plus loin comment c’est Galilée et Newton qui ont débuté cette déconstruction.
[2] Que je citerai d’après l’édition portugaise.
[3] Héritage reconnu par le grand physicien qui fut Feynman : ce qu’on appelait d’habitude philosophie naturelle, d’où est dérivé la plupart de la science (p. 74), tout en croyant d’ailleurs comme Newton que la Physique est son équivalent moderne. 
[4] Les règles que les sciences découvrent, de même qu’une automobile est projetée au laboratoire pour se mouvoir dans l’aléatoire du trafic.
[5] Galilée, Discours et dé­monstrations mathématiques concernant deux scien­ces nouvelles, in­trod., trad. e notas por M. Clavelin, 1970, A. Colin, p. 144
[6] Thomas Kuhn, La structure des révolutions scientifiques, [1962], Flammarion, 1983, p. 31.
[7] Feynman dit que “Newton n’a pas élaboré des hypothèses, satisfait d’avoir découvert ce qu’elle faisait, sans s’intéresser par son mécanisme. Personne dès lors n’a pás proposé aucun mécanisme” (p. 128). Au fait, ce que Newton a dit c’est qu’il n’était pás capable de fictionner (fingere en latin, feindre), imaginer une hypothèse explicative de cette étrange force à distance: “je n’ai pas encore réussi à déduire des phénomènes la raison de ces propriétés de la gravité et je ne me figure aucune hypothèse (hypothesim non fingo)” (Newton, Principes mathématiques de la Philosophie natu­relle, trad. de Mme Châtelet, Paris [1756], édition fac-simile de A. Blanchard, 1966, pp. 178-179).
[8] Feynman souligne três souvent cette ignorance des physiciens de son temps sur des motifs fondamentaux de la Physique: pp. 57, 66, 95, 106,107, 113-4, 128-9, 133.
[9] Sans laboratoires, ces motifs – des forces qui retiennent des énergies – n’existeraient pas, ce qui n’est pas vrai d’espace, temps, vitesse, poids ; sans le champ de la gravité, il n’y a pas des mouvements de graves sur la terre, de même que sans les explosions de forces électromagnétiques ou nucléaires il n’y a pas d’optique, de relativité ou de la mécanique quantique.
[10] La différence phénoménologique entre le champ des forces de gravité et les astres est équivalente à la différence entre telle espèce biologique et ses individus, telle langue et ses discours ou textes, telle société et ses populations. Affirmer dans un premier temps la primauté du ‘champ’ sur les astres ne peut se faire qu’en l’effaçant ensuite pour dire que champ et astres ce sont le même, l’un n’est pas sans les autres.
[11] C’est sur de l’irradiation électromagnétique qu’il argumente dans le quatrième texte de 1905 (de trois pages) qui établit cette formule.
[12] En ‘entropie’, le verbe trepô signifie ‘changer’, avec l’ ‘-en’ devient intérieur: ‘changement intérieur’, de sentiments, ici d’énergie interne.
[13] Dans le contexte de la phénomenologie qui est ici au travail, on posera la question de savoir jusqu’où ‘l’attraction’ par des forces continue de jouer aux niveaux entropiques de la vie et des humains. Au niveau zoologique, les motifs de flair et de faim jouent comme des attractions chimiques essentielles à la reproduction des animaux, de même que les pulsions sexuelles sont des attractions chimiques pour la reproduction des espèces. Dans l’habitation sociale, le motif d’envie répond aussi à l’attraction du paradigme des usages qui ‘attire’ (Kuhn, généralisé à toute unité sociale), le jeu des désirs et des rivalités, etc. Au niveau de l’inscription, la curiosité est le grand moteur attractif de tout savoir, des apprentissages comme des découvertes et inventions. Entraînement et éducation, ce sont des manières de retenir la spontanéité chimique des attractions biologiques, en vue d’y créer de l’entropie, c’est-à-dire, d’en faire une spontanéité habile capable de jouer quand il faut. Voici une façon de justifier aux yeux des physiciens l’audace du propos.
[14] Je serais tenté de dire que la physique des particules est kantienne et celle de l’atome husserlienne. Les pieds d’argile du kantisme, c’est son point de départ sur les ‘sensations’, comme si elles étaient des ‘étants’ d’où partir, tandis que Husserl, plus avisé, a assis son édifice phénoménologique sur la ‘perception’ de la chose, du phénomène, toujours le même malgré les variations possibles des perceptions. La physique des particules, à la façon de Kant, obéit au principe cartésien d’analyser en descendant jusqu’au plus simple et de monter par la suite pour faire la synthèse. Mais ce ‘plus simple’, sensations ou particules respectivement, subsiste-t-il par soi de façon à être la base possible de la synthèse ?
[15] La première définition de Newton est celle de quantité de matière”, qu’il designe par les mots ‘corps’ ou ‘masse’ et l’on connaît par le poids des dits corps, c’est-à-dire, par mensuration. Il a d’ailleurs commencé en disant que “les Modernes ont enfin rejeté depuis quelque temps, les formes substantielles et les qualités occultes”. Quantité (par différences mesurées, comme chez Galilée) et non point qualité: dé-substantialisation.
[16] “Science moderne et interrrogation philosophique”, Encyclopædia Universalis, vol. Organon, 1975, p. 48.
[17] Tenues en compte dans leurs respectives équations, comme le fait pour la relativité restreinte Laurent Nottale, La relativité dans tous ses états. Au-delà de l’espace-temps, Hachette, 1998.

Sem comentários: