GT : Entropie, de la physique statistique aux mathématiques
Au sujet de ce cours
Ce groupe de travail s’intéressera à la formalisation et l’utilisation en mathématiques de concepts issus de la thermodynamique et de la mécanique statistique. Pour introduire le contexte, une citation inspirante, célèbre parmi d’autres : « Ludwig Boltzmann, who spent much of his life studying statistical mechanics, died in 1906, by his own hand. Paul Ehrenfest, carrying on the work, died similarly in 1933. Now it is our turn to study statistical mechanics.’’ States of matter, by David L. Goodtsein, 1975, Dover N.Y.
Pour préserver la santé mentale des membres de ce GT, nous restreindrons notre étude à différentes formalisations et utilisations de la notion d’entropie, qui est omniprésente en physique statistique, aussi bien qu’en théorie de l’information, en thermochimie, dans l’étude des équations de transport ou de diffusion, dans la théorie probabiliste des grandes déviations… Introduite par Clausius et Carnot pour l’étude des machines thermiques, cette notion a pris un essor considérable avec les travaux fondateurs de Boltzmann en mécanique statistique, qui aboutirent notamment au célèbre Théorème H. On la retrouve aujourd’hui dans toutes sortes de modèles et de contextes, dont la grande diversité rend parfois difficile le lien avec la grandeur physique initiale. Plutôt que d’en proposer une dérivation systématique et rigoureuse (dont l’existence même n’est aujourd’hui pas certaine), ce GT proposera une démarche plus illustratrice, suivant les notes de cours de L.C. Evans (librement accessibles en ligne : https://math.berkeley.edu/~evans/entropy.and.PDE.pdf ).
Après une introduction présentant différentes axiomatisations rigoureuses de la thermodynamique (pour revenir sur l’origine historique de la notion), nous verrons comment l’entropie s’étend à la mécanique des milieux continus et facilite naturellement l’étude de certaines familles d’EDPs : les équations linéaires de diffusion et de transport, et non-linéaires de Hamilton-Jacobi. Ces équations seront l’occasion d’introduire des résultats classiques de régularité parabolique, de solutions entropiques et de solutions de viscosité. Nous ferons alors un aparté sur les définitions de l’entropie suivant Boltzmann et Gibbs en physique statistique, suivant Shannon en théorie de l’information, ainsi qu’une présentation de l’équation de Boltzmann et du théorème H. Ces définitions seront ensuite illustrées par un résultat rigoureux de limite hydrodynamique pour une version simplifiée de l’équation de Boltzmann d’une part, et par quelques résultats classiques en théorie des grandes déviations d’autre part. Dans le temps qu’il restera, nous parlerons du principe de conditionnement de Gibbs et de son application en théorie de l’estimation, suivant l’article de S.Mitter et N.Newton : A variational Approach to Nonlinear Estimation (suivant les goûts des étudiants présents, nous pourrons passer rapidement sur l’estimation, pour voir plutôt d’autres applications du principe de Gibbs en grandes déviations).
Références :
Entropy and Partial Differential Equations, Lawrence C. Evans, lecture notes at UC Berkeley, Department of Mathematics.
A Variational Approach to Nonlinear Estimation, Sanjoy Mitter and Niegel Newton, 2003, SIAM Journal on Control and Optimization, Vol.42, Iss.5.
Références complémentaires :
Entropy, Large Deviations, and Statistical Mechanics, Richard S. Ellis, Springer 2006, Classics in Mathematics.
(Ir)réversibilité et Entropie, Cédric Villani, Séminaire Poincaré XV (2010), Le Temps, 17 – 75.