Designed and built with care, filled with creative elements

GT : Entropie : entre physique statistique, probabilités et EDPs
Week 1
Design Research
5 readings
Reading: GT : Entropie : entre physique statistique, probabilités et EDPs
Reading: GT : Entropie : entre physique statistique, probabilités et EDPs
Reading: GT : Entropie : entre physique statistique, probabilités et EDPs
Reading: GT : Entropie : entre physique statistique, probabilités et EDPs
Reading: GT : Entropie : entre physique statistique, probabilités et EDPs
Graded: GT : Entropie : entre physique statistique, probabilités et EDPs
1 Question
Week 2
Ideation
2 readings
Reading: GT : Entropie : entre physique statistique, probabilités et EDPs
Reading: GT : Entropie : entre physique statistique, probabilités et EDPs
Graded: GT : Entropie : entre physique statistique, probabilités et EDPs
1 Question
Top
Image Alt

GT : Entropie : entre physique statistique, probabilités et EDPs

  /  2ème année  /  GT : Entropie : entre physique statistique, probabilités et EDPs

GT : Entropie : entre physique statistique, probabilités et EDPs

Au sujet de ce cours

La notion d’entropie est omniprésente, en physique statistique ou en théorie de l’information, en thermochimie, dans l’étude des équations de transport ou de diffusion, dans la théorie probabiliste des grandes déviations… Introduite par Clausius au dix-neuvième siècle dans l’étude des machines thermiques, cette notion a pris un essor considérable avec les travaux fondateurs de Boltzmann en mécanique statistique, puis de Shannon en théorie du signal.

Ce GT proposera une démarche illustratrice, suivant les notes de cours de L.C. Evans. Après une introduction présentant différentes axiomatisations rigoureuses de la thermodynamique, nous verrons comment l’entropie s’étend à la mécanique des milieux continus et facilite l’étude mathématique de certaines familles d’EDPs : les lois de conservation et les équations de Hamilton-Jacobi. Ce sera l’occasion d’introduire des résultats classiques de régularité parabolique, de solutions entropiques et de solutions de viscosité. Nous ferons ensuite un retour sur les définitions de l’entropie suivant Boltzmann et Gibbs en physique statistique, puis Shannon en théorie de l’information, ainsi qu’une présentation de l’équation de Boltzmann et du théorème H. Ces définitions seront illustrées par un résultat rigoureux de limite hydrodynamique pour une version simplifiée de l’équation de Boltzmann d’une part, et par quelques résultats classiques en théorie des grandes déviations d’autre part. Dans le temps qu’il restera, nous nous tournerons vers une vision plus probabiliste de l’entropie autour du problème du pont de Schrödinger, en s’inspirant des notes de M. Nutz (https://www.math.columbia.edu/~mnutz/docs/EOT_lecture_notes.pdf ).

Référence

Notes de cours de L.C. Evans, disponible sur https://math.berkeley.edu/~evans/entropy.and.PDE.pdf

Notes de cours de M. Nutz, disponible sur https://www.math.columbia.edu/~mnutz/docs/EOT_lecture_notes.pdf