DOGMA

 

Angèle Kremer Marietti

 

Anouk Barberousse, La physique face à la probabilité

Paris, Librairie Philosophique J. Vrin, 2000, collection  Mathesis , 210 p.

 

À l’argumentation que l’on peut reconnaître comme menée de main de maître et d’une texture tissée dense, ce livre est, pour la majeure partie, consacré à l’épistémologie de la physique ; il ouvre, en effet, des perspectives fondées sur les méthodes employées dans le domaine des sciences physiques et, en particulier, dans celui de la mécanique statistique, domaine dans lequel l’auteur s’est assuré les meilleurs témoignages de notre époque.

La notion de probabilité est également abordée par Anouk Barberousse dans son sens courant ; car c’est une notion qui se présente aisément à la réflexion commune en tant que concept familier puisqu’elle est d’un usage habituel dans la pensée de la vie quotidienne. À partir de là, c’est également en tant que concept philosophique plus complexe que cette notion peut être analysée. C’est donc ce concept philosophique, plus connu que le concept mathématique, que l’auteur commence par inventorier de manière approfondie dans la première partie de cette étude très fouillée.

Du point de vue d’une analyse formelle, on peut prendre la probabilité d’un point de vue subjectif (comme la disposition à parier) ou d’un point de vue objectif (comme la mesure d’une propriété observable), selon la conception de Poincaré qui montre que la première approche est en étroite liaison avec la seconde. Carnap distingue également un double point de vue : celui de la probabilité conçue comme degré d’affirmation et celui de la probabilité associée à une fréquence relative d’événements. Mais un événement singulier peut relever également du concept de probabilité dans le cas où il s‘agit d’une propriété dispositionnelle (opposée à une propriété catégorielle) et qui est liée à une situation contrefactuelle : d’où la théorie poppérienne des propensions. La théorie des degrés de croyance de Ramsey est une autre façon de comprendre la probabilité et de donner une signification aux énoncés probabilistes. Considérés d’un point de vue accessible à tous, ces  degrés de croyance  peuvent devenir des  degrés de certitude ou d’ignorance . Des lumières nouvelles peuvent actualiser les degrés de croyance ou de connaissance, comme le permet le théorème de Bayes avec  une représentation formelle du processus d’acquisition de connaissances ou de modification des croyances  (p.32). Reste alors le problème de la détermination des probabilités antérieures, auquel E. T. Jaynes, un spécialiste de mécanique statistique, veut donner une solution : il pense que le principe d’indifférence permet de déterminer objectivement des probabilités antérieures a priori. Anouk Barberousse conclut la première partie de son étude en constatant que l’analyse conceptuelle  produit plus de problèmes qu’elle n’en résout  (p.37).

Un premier problème physique consiste dans l’application d’une théorie mathématique aux phénomènes naturels qui n’obéissent jamais strictement aux mêmes lois que les structures mathématiques. D’où, pour appliquer une théorie mathématique à des phénomènes naturels, la nécessité de déterminer précisément les conditions dans lesquelles elle est valable. C’est là un aspect majeur du fameux problème de Reichenbach appelé l’Anwendungsproblem ou problème de l’application, qui est ensuite analysé.

Le terrain d’épreuve pour tester les questions soulevées par les énoncés probabilistes est la mécanique statistique, qui fut la première théorie atomiste de la matière, et que l’auteur tente de définir selon les phénomènes de masse dont elle est la science, puis selon les points de vue de l’ergodicité et de l’irréversibilité : trois approches nullement incompatibles. Une définition peut ensuite s’exprimer :   La mécanique statistique est la théorie des mouvements des composants, des atomes, des systèmes macroscopiques  (p.72) ; c’est dire que les objets d’étude de cette science demeurent inaccessibles à l’observation. La grandeur thermodynamique qui s’impose est l’entropie : celle-ci implique d’introduire le second principe de la thermodynamique qui n’est autre que le principe d’augmentation de l’entropie (le premier étant le principe de conservation de l’énergie des systèmes isolés). La comparaison entre mécanique statistique et mécanique newtonienne montre les rapports étroits qu’elles entretiennent entre elles. La mécanique statistique a eu besoin de la thermodynamique et de l’hydrodynamique pour se constituer en tant que théorie physique ; et la mécanique newtonienne est la théorie du mouvement sous-jacente à la mécanique statistique.

Anouk Barberousse discute le réductionnisme interthéorique qui a présenté la relation de la thermodynamique à la mécanique statistique ; elle avance sa thèse selon laquelle la mécanique statistique  n’est une véritable théorie physique que dans ses rapports avec la thermodynamique d’une part, et la mécanique newtonienne – ou la mécanique quantique – de l’autre  (p.94). Ce qui l’entraîne à exposer les débuts de la mécanique statistique dans les représentations de Maxwell et Boltzmann, l’acte de naissance de cette science étant l’article de 1860 de Maxwell -  Illustrations of the Dynamical Theory of Gases  - suivi de deux autres articles du même auteur en 1867 et 1879. Plusieurs méthodes sont à l’œuvre : soit que les différences de procédures de calcul reposent sur des différences entre les modes de représentation, soit que les hypothèses utilisées dépendent de la considération des mouvements individuels des particules. L’usage des probabilités en mécanique statistique soulève des questions liées à deux ensembles de problèmes : 1 soit concernant la justification de l’introduction du formalisme probabiliste au sein de la mécanique newtonienne ; 2 soit concernant la signification des énoncés statistiques et probabilistes qui s’ensuivent. Les questions contemporaines sur les fondements de la mécanique statistique forment la troisième partie de l’ouvrage.

Est traitée, en première approche, la théorie mathématique de l’ergodicité, qui donne aux notions de moyenne et de probabilité la précision nécessaire du point de vue de l’ensemble de l’évolution du système. L’approche ergodique de la mécanique statistique permet d’envisager cette théorie comme un prolongement naturel de la mécanique newtonienne. La théorie mathématique des systèmes dynamiques n’utilise aucun modèle particulier pour représenter les molécules et leurs interactions : d’où une extrême généralité qui figure parmi les avantages de cette approche qui comporte néanmoins des critiques : l’incertitude, l’idéalisation non contrôlée.

La seconde approche de la mécanique statistique concerne le destin individuel des molécules et introduit le Stoβzahlansatz ou l’hypothèse  sur le nombre des collisions  conçue par Boltzmann en 1872. La formule de l’hypothèse est la suivante :   les fréquences relatives des vitesses de deux molécules qui sont sur le point d’entrer en collision sont indépendantes l’une de l’autre, ce qui fait que l’on peut facilement calculer le nombre moyen de collisions par unité de temps dans un élément de l’espace des phases  (p.159-160). De nature intrinsèquement statistique, cette hypothèse concerne les molécules d’un ensemble très nombreux ; elle appartient au cadre de la mécanique statistique  hors d’équilibre  dont la difficulté est plus grande que la mécanique d’équilibre. Un tel système hors d’équilibre est représenté par une distribution des micro-états telle qu’elle évolue de façon irréversible alors que les micro-états évoluent de façon réversible selon les lois de la mécanique newtonienne. L’équation de Boltzmann (1872) décrivant les collisions dans un système hors d’équilibre et l’hypothèse  sur le nombre des collisions  permettent de déterminer la distribution initiale des micro-états d’un système hors d’équilibre selon une stratégie consistant dans le choix d’une distribution minimisant les corrélations entre les vitesses des particules. Notons qu’actuellement on a trouvé des hypothèses moins fortes que celle  sur le nombre des collisions .

Une troisième approche, qui est un choix méta-théorique partant d’idées de Boltzmann et Maxwell, est ensuite développée par Anouk Barberousse : celle des  ensembles de Gibbs , qui sont des constructions théoriques permettant  une nouvelle façon de faire des statistiques sur des grands ensembles de particules  (p.166). Alors, des possibilités multiples sont considérées et l’unicité du modèle n’est plus exigée.

Cet exposé des approches confirme la diversité de la mécanique statistique. Reste le problème essentiel quant à l’utilisation des probabilités en mécanique statistique. En effet, les probabilités s’appliquent-elles à des systèmes ou à des molécules ? La théorie des probabilités affecte-t-elle la notion newtonienne de trajectoire dans l’espace des phases ? En la matière, le point de vue boltzmannien est défendu par J. Bricmont développant des idées de J. Lebowitz. La question à résoudre est la suivante : devant un certain nombre de contraintes macroscopiques d’un système isolé - et qui correspondent à une infinité de micro-états possibles – sur quoi nos prédictions portent-elles ? En fait, les prédictions portent sur le comportement futur des variables macroscopiques correspondant à l’évolution de l’immense majorité des micro-états compatibles avec les contraintes initiales. Il s’agit du point de vue  classique  auquel s’oppose le point de vue de Prigogine qui veut éliminer la notion de trajectoire de la description probabiliste de la mécanique statistique. Pour Lebowitz et Bricmont, ce qu’il faut expliquer c’est qu’un système satisfaisant à certaines conditions macroscopiques initiales – elles-mêmes correspondant à une infinité de micro-états initiaux différents – obéisse toujours à des lois macroscopiques. Or, c’est en étudiant le macro-état réalisé avec une probabilité égale à 1 que nous pouvons établir des énoncés indépendants du micro-état particulier dans lequel se trouve le système (en pratique, on se contente de probabilités proches de 1). Une discussion s’impose alors à propos de la notion d’entropie, qui ne reste pas toujours la même chez Boltzmann, Clausius et Gibbs ; toutefois, dans les systèmes à l’équilibre avec des densités de particules, d’énergie et de quantité de mouvement variant lentement à l’échelle microscopique, l’entropie de Boltzmann est égale à l’entropie de Clausius et elle prend alors la même valeur que l’entropie de Gibbs. Hors d’équilibre, quelle est la notion d’entropie figurant dans le Deuxième Principe de la thermodynamique ? Lebowitz et Bricmont soulignent que  l’entropie de Gibbs reste constante au cours du temps  (p.175). Et on peut évaluer l’entropie de Boltzmann dans le cas particulier de gaz très dilués. Tout cela confirme qu’il faut appliquer la théorie des probabilités en mécanique statistique  à partir de la considération du volume de l’espace des phases occupé par le système étudié  selon la thèse de Lebowitz et Bricmont. À l’appui de ces positions, Anouk Barberousse invoque ensuite des investigations concrètes.

La question de l’irréversibilité clôt cet ensemble de problèmes :  À quelle échelle et par quels moyens introduire l’irréversibilité ? (p.183). Le dilemme qui solutionne le paradoxe est explicité par Bricmont (cf. "Science of Chaos or Chaos in Science ?", 1995). Soit, pour traiter les phénomènes thermiques et hydrodynamiques, on distingue explicitement les domaines microscopiques et macroscopiques en attribuant un rôle déterminant aux conditions initiales des systèmes quand on veut rendre compte de l’irréversibilité, soit on ignore ces deux clauses. Accepter les deux clauses a pour effet de ne faire jouer aucun rôle  dans l’apparition de l’irréversibilité, d’une part, aux caractéristiques de la dynamique microscopique et, d’autre part, à ses propriétés d’ergodicité et de mélange. Refuser les clauses – position de Prigogine et Stengers – implique une explication de l’apparition de l’irréversibilité qui soit valable absolument pour toutes les conditions initiales et pour toutes les fonctions possibles quelle que soit l’échelle considérée ! Or, la séparation entre les échelles est essentielle et son rôle est déterminant pour expliquer des aspects qualitatifs du comportement macroscopique irréversible, ajouté à l’hypothèse que les conditions initiales des systèmes traités soient en un état de faible entropie : entropie pouvant augmenter de façon irrésistible en accord avec le Deuxième Principe de la thermodynamique. La loi des grands nombres et l’idéalisation qui prend la limite de certaines quantités sur un intervalle de temps infini ne sont à considérer comme des raisonnements rigoureux que si, comme le souligne Bricmont, on les complète par des arguments n’entrant en contradiction ni avec l’expérience ni avec la théorie. Il est difficile d’émettre un jugement général sur la mécanique statistique qui ne soit soumis à quelque objection, la règle à suivre étant une appréciation nuancée, qu’elle soit directement théorique ou qu’elle relève des calculs mathématiques complexes.