La mécanique statistique, appelée aussi "thermodynamique statistique", a pour but d'expliquer le comportement des systèmes macroscopiques à partir de leurs caractéristiques microscopiques. C'est de façon beaucoup plus générale, la physique quantique qui décrit les propriétés et l'évolution des systèmes physiques à l'échelle microscopique. La mécanique statistique est donc construite sur cette description quantique comme nous le verrons sur les développements mathématiques qui suivront.
La démarche présentée ici est d'aborder la mécanique statistique élémentaire pour en déduire ensuite la thermodynamique. La mécaniqe statistique constitue en effet, avec la physique quantique et la relativité, l'un des piliers de la phyisque moderne; il est important de la percevoir d'emblée comme une théorie fondamentale, et non pas comme une simple tentative pour justifier à posteriori la thermodynamique. La thermodynamique elle-même y gagne en retour compréhension plus juste et plus profonde de ses principes et de ses méthodes.
THÉORIE STATISTIQUE DE L'INFORMATION
Le mot "information" est utilisé dans des contextes très variés, dans des sens totalement différents suivants les disciplines scientifiques : nous pouvons à titre d'exemple citer la thermodynamique avec le concept d'entropie, la physique appliquée avec la théorie du signal, la biologie avec la théorie du génome et la physique quantique avec la probabilité d'obtenir de l'information.
Se pose alors la question, s'il est possible de construire une théorie de l'information et si elle est unique? Notre démarche ici, ne vise non pas l'information en tant que telle, mais la quantité d'information. Lorsque nous parlons de quantité et de mesure, nous pensons à la notion de contenu ou de valeur de l'information. La science de l'information de par son objet doit se sentir concernée par ce questionnement. Si nous définissons "l'infométrie" comme l'ensemble des techniques de mesures mathématiques et statistiques de l'information, nous souhaiterions avoir une définition suffisamment claire du concept de quantité d'informations qui puisse nous amener à définir une mesure, c'est-à-dire un ensemble d'opérations parfaitement définies, nous amenant à des axiomes clairs et dont le résultat est un nombre. La synthèse que nous développons ici n'est pas ambitieuse.
Nous nous intéressons donc ici aux fondements la théorie statistique de l'information connue également sous le nom de "théorie de Shannon". La formule de Shannon qui en ressort est certainement un des concepts fondamentaux de toute la physique puisqu'elle touche la brique irréductible de la physique : l'information !!
Nous montrerons (plus bas) qu'un système physique isolé a pour état le plus probable, celui qui contient le plus d'états et qui est donc à fortiori le plus imprévisible. Or, l'état le plus improbable est donc celui qui est le plus prévisible. Dès lors, puisque l'imprévisibilité apparaît comme un attribut essentiel de l'information, nous identifions la mesure quantitative de l'information à son improbabilité.
Ainsi, la quantité d'information h(x)apportée par la réalisation d'un événement x de probabilité p(x) sera une fonction croissante f de son improbabilité 1/p(x) :
(1)
De plus, la réalisation de deux événements indépendants x et y apporte intuitivement une quantité d'information qui est la somme de leurs quantités d'informations respectives, soit :
(2)
La fonction logarithme est donc par ses propriétés une candidate naturelle pour f telle que:
(3)
où est bien évidemment un nombre positif.
Remarque: Le choix de la base du logarithme définit l'unité d'information qui est complètement arbitraire. Par la suite, et sauf précision contraire, "log" désignera le logarithme en base .
Ainsi, la "quantité d'information intrinsèque" d'un événement x est donc de par les propriétés du logarithme:
(4)
Elle peut être considérée, comme nous l'avons fait, comme une mesure d'incertitude sur l'événement, ou comme celle de l’information nécessaire pour résoudre cette incertitude.
Définitions:
D1. Nous définissons "l'information intrinsèque par paire" de deux événements x et y de probabilité conjointe p(x,y) (cf. chapitre de Probabilités) par:
(5)
D2. Nous définissons de même "l'information conditionnelle" de x sachant y par (cf. chapitre de Probabilités) :
(6)
Il s'agit de la quantité d'information restant sur x après l’observation de y. La formule de Bayes (cf. chapitre de Probabilités) nous permet de remarquer immédiatement que si x et y sont indépendants:
(7)
ce qui concorde avec le sens commun.
Nous souhaitons aussi mesurer la quantité d’information que la donnée d'une variable, par exemple y, apporte sur l'autre, x. C'est le cas en particulier lorsque nous identifions x au choix d'un signal appliqué à l'entrée d'un canal et y au signal correspondant observé en sa sortie. p(x) est alors la probabilité à fortiori quex soit émis et la probabilité à fortiori que x ait été émis, sachant que y a été reçu.
Une mesure de cette quantité d'information, nommée "information mutuelle" est :
(8)
il s’agit de la mesure logarithmique de l’accroissement de la probabilité de x (donc la baisse de sa quantité d’information) dû à son conditionnement sur y. Si la donnée de y est équivalente à celle de xh(x). Elle est nulle si, à l’inverse, x et sont indépendants. (cas d’un canal parfait), elle est égale à l'information intrinsèque
Nous avons bien évidemment:
(9)
et de par les propriétés des logarithmes:
(10)
cette dernière égalité justifiant le terme "mutuelle". Alors que les informations intrinsèques étaient positives, l’information mutuelle peut être négative. Nous verrons que sa moyenne, beaucoup plus importante dans la pratique, ne peut l’être.
Les événements individuels étant généralement moins importants que les moyennes, nous considérerons par la suite une source aléatoire, discrète, finie, stationnaire, et blanche (i.e. de réalisations successives indépendantes). Les événements sont donc interprétés comme le choix d’un symbole dans l’alphabet de la source. Soit n la taille de cet alphabet, et ses symboles. La source est donc décrite par la variable aléatoire x, qui prend ses valeurs dans l’alphabet, avec des probabilités respectives , telles que:
(11)
La quantité d'information moyenne de cette source est l'espérance de l'information intrinsèque de chaque symbole de l’alphabet de la source (cf. chapitre de Statistiques). Elle est appelée "entropie" (par la notation) de X et vaut donc :
(12)
Cette relation étant appelée la "formule de Shannon".
Cette écriture constitue un abus de notation: en effet, l’espérance mathématique a un sens si h(x) est une fonction de x. Or h(x) ne dépend pas des valeurs de x, mais seulement des probabilités associées. Nous noterons parfois plus rigoureusement l'entropie d’une distribution .
Les "entropies conjointes et conditionnelles" sont définies de manières similaires avec les notations idoines :
(13)
et:
(14)
Il faut noter dans la dernière expression que l’espérance est effectuée dans l’espace produit, et que donc le coefficient est la probabilité conjointe.
"L’information mutuelle moyenne", appelée par abus de langage "information mutuelle" se définit elle aussi de manière directe:
(15)
Remarque: Il est à noter que la définition de la quantité d’information, par une mesure logarithmique peut paraître arbitraire, quoique raisonnable, compte tenu des propriétés attendues d’une telle mesure. Shannon, et plus tard Khintchine ont montré que compte tenues de certaines propriétés posées en axiomes, la fonction logarithmique est la seule à convenir.
Exemple:
Soit une variable aléatoire binaire, valant 1 avec une probabilité p (et donc 0 avec une probabilité ). Son entropie vaut :
(16)
avec et avec un logarithme en base 2 tel que pour un événements à deux états équiprobables, l'entropie d'obtention d'un des deux états soit égale à l'unité. Ceci dit, il vient naturellement que .
Elle est représentée à la figure ci-dessous, en "Shannon" (unité correspondant à l'utilisation du logarithme à base 2). Nous remarquerons sa symétrie par rapport à ½, valeur pour laquelle elle atteint son maximum, égal à 1.
Entropie d’une variable binaire
(17)
Il convient maintenant de faire la liaison entre la théorie statistique de l'information et la mécanique statistique :
LOI DE BOLTZMANN
Nous allons d'abord démontrer par l'intermédiaire d'un cas simple, que pour tout système, l'état le plus probable est l'état d'équilibre !
Considérons un système isolé (un système est dit "isolé" lorsqu'il est imperméable à tout flux – chaleur (adiabatique), matière, champs, …) peuplé de N particules discernables. Ce système est partagé en deux compartiments (ou niveaux) identiques et séparés d'une paroi imperméable. Chaque compartiment est supposé contenir un nombre de particules.
Pour une configuration donnée du système, nous parlons de "macro-état" dans le sens où il est possible de par la quantité de particules de mesurer une grandeur dite macroscopique tel que l'énergie, la masse, la pression, etc.
Si nous fixons ce système particulier, il est bien sûr possible pour un nombre N de particules de concevoir un nombre donné de macro-états. Tel que :
- 1 particule : 2 macro-états (1 configuration par macro-état)
- 2 particules : 3 macro-états (4 configurations possibles par permutation des compartiments)
- 3 particules : 4 macro-états (8 configurations possibles par permutations des compartiments)
- 4 particules : 5 macro-états (16 configurations possibles par permutations des compartiments)
etc.
Définition: Nous appelons "micro-état", une configuration de permutation du macro-état.
Remarque: Parfois au lieu de "micro-état" nous trouvons dans la littérature "probabilité thermodynamique" ou "complexions".
Déterminons maintenant à l'aide de l'analyse combinatoire (cf. chapitre de Probabilités) le nombre de micro-états possibles pour chaque macro-état. Par analogie, ceci correspond à s'imaginer que le système est une tige par laquelle sont enfilées des boules (particules) et que la tige est séparée par une frontière imaginaire en un des ses points (boulier chinois). Pour une telle situation, nous avons :
(18)
Ceci nous donne tous les arrangements possibles des "particules gauches" avec les "particules droites" (de la frontière) pour un macro-état donné (le nombre de manières dont les particules peuvent se partager entre les deux compartiments). Mais nous avons aussi dans ce cas particulier :
(19)
Or cela correspond à la combinatoire tel que :
(20)
et donc :
(21)
Nous avons finalement pour tous les macro-états d'un système de N particules, un total de :
(22)
micro-états (configurations) possibles. Or, nous avons bien vu dans l'exemple initial que :
(23)
Ainsi, la probabilité d'existence d'un micro-état donné est de et elle est équiprobable !!
Nous pouvons maintenant énoncer le premier postulat de la mécanique statistique (postulat de Gibbs) : tous les micro-états discernables et accessibles d'un système isolé sont équiprobables.
Revenons-en maintenant à notre question initiale sur l'équilibre :
La notion d'équilibre associé à un macro-état nous est fournie par la thermodynamique classique. Nous y voyons qu'un système est dit à l'équilibre lorsque son état est caractérisé par l'indépendance temporelle des grandeurs macroscopiques (masse, énergie, pression, …) et de la constance des potentiels thermodynamique (énergie interne, enthalpie, énergie de Gibbs, …).
Pour savoir pourquoi l'équilibre est l'état le plus probable, il nous suffit de chercher quel est le couple qui maximise :
(24)
puisque tous les micro-états sont de toute façon équiprobables. Il est facile de contrôler que ce maximum est donné pour :
(25)
Nous pouvons dès lors énoncer le deuxième postulat de la mécanique statistique : l'état d'équilibre est l'état qui correspond au plus grand nombre de configurations (micro-états) et est l'état le plus probable!!
Ou en d'autres termes: Un système atteint l'équilibre lorsque son entropie devient maximale!!
Soit maintenant à considérer le système suivant :
(26)
La fonction de distribution P(x) qui décrit la position des particules selon l'axe x à l'équilibre va évoluer vers une autre fonction de distribution correspondant au nouvel équilibre . À l'équilibre P(x) est constante. Mais entre les deux équilibres, elle évolue, et devient de plus en plus large. Nous perdons donc de l'information sur la position des particules. Nous pouvons donc ré-énoncer le deuxième postulat en disant qu'un système hors d'équilibre évolue toujours dans le sens d'une perte d'informations (d'un élargissement de la fonction de distribution caractéristique).
Parallèlement, le deuxième principe de la thermodynamique classique nous indique que cette toute évolution naturelle doit nécessairement correspondre à un accroissement d'entropie . Il doit donc exister un lien étroit entre l'information que nous possédons sur l'état de chacune des particules et l'entropie du système.
Le cas que nous venons de décrire montre clairement que les paramètres ou concepts : nombre de configurations, désordre, équilibre, quantité d'information et entropie d'un système isolé servent à représenter l'état d'un système. Ces paramètres jouent le même rôle. Des relations mathématiques doivent donc les relies les unes aux autres.
Rappelons que nous avons démontré que l'entropie statistique infométrique d'un système est donnée par :
(27)
Si nous appliquons cette relation au cas d'un système physique en équilibre pour lequel nous souhaitons calculer l'entropie, nous avons démontré :
(28)
Il nous faut encore savoir à quoi correspond cette probabilité constante. Nous avons démontré précédemment qu'à l'équilibre, nous avions :
(29)
qui est donc le nombre de micro-états à l'équilibre. Ainsi, la probabilité de tirer un micro-état parmi tous est de :
(30)
que nous notons, dangereusement par tradition simplement :
(31)
Nous avons ainsi :
(32)
Comme les probabilités des micro-états sont équiprobables et que nous sommons sur l'ensemble de ces derniers, il vient :
(33)
et donc :
(34)
Puisque l'équilibre est liée au désordre maximum, et que le désordre est lié à l'information manquante, il paraît raisonnable de relier l'entropie statistique de l'information à l'entropie statistique thermodynamique en physique. Pour cela, il faut que la constante nous permette d'obtenir les bonnes unités et il vient naturellement de choisir cette constante telle qu'elle soit égale à la constante de Boltzmann k qui a les mêmes unités que l'entropie thermodynamique. Ainsi :
(35)
Il nous faut encore choisir la base du logarithme. L'expérience montre qu'il faut choisir le logarithme néperien qui permet de retrouver des résultats de la mécanique classique après développements.
Ainsi, nous obtenons finalement la "loi de Boltzmann" :
(36)
Qui nous donne l'entropie thermodynamique d'un système à l'équilibre!
De par les propriétés mathématiques de l'écart-type, nous avons pour un ensemble N de sous-systèmes :
(37)
Par anologie, avec une approche statistique de l'énergie interne de l'ensemble du système étant alors:
(38)
Par analogie, avec une approche statistique de l'énergie interne de l'ensemble du système étant alors:
(39)
Soit en différenciant:
(40)
ce qui est l'expression statistique intuitive du premier principe de la thermodynamique. Effectivement, le travail est une variation d'énergie mécanique déterministe de micro-états, alors que la chaleur comme nous le verrons plus bas se décrit à l'aide de fonctions de distributions d'où le fait que nous intégrons sur les probabilités.
Nous y reviendrons un peu plus en détails dans le chapitre de Thermodynamique!
DISTRIBUTIONS STATISTIQUES PHYSIQUES
Nous distinguerons quatre différentes statistiques qui proviennent ou non d'effets quantiques et qui conduiront à quatre distribution distinctes connues. Ce sont les distributions de Maxwell, Maxwell-Boltzmann, Fermi-Dirac et de Bose-Einstein. Elles trouvent de nombreuses applications en physique comme le rayonnement du corps noir qui sera démontré dans le chapitre de thermodynamique.
DISTRIBUTION DE MAXWELL (distribution des vitesses)
Pour un gaz en état d’équilibre, posons la question suivante :Quelle probabilité existe qu’une molécule ait ses composantes de vitesse comprise entre et , et , et dans un repère cartésien habituel ?
Cette probabilité dépend de (c’est à dire : ) et de . Elle ne dépend pas de la position de la molécule puisque le gaz est supposé à l'équilibre par rapport à son centre de masse.
Nous postulons dans un premier temps que est proportionnelle à chacun des intervalles tel que :
(41)
et qu'il n’y a pas de directions privilégiées. Nous pouvons faire une rotation circulaire des axes cartésiens, la probabilité sera inchangée (isotropie de l’espace).
L'isotrope amène que la fonction ne dépend pas du vecteur , au mieux elle dépend de la norme de cette vitesse, tel que :
(42)
Soit la probabilité pour une molécule d’avoir sa composante suivant l’axe Ox comprise entre et alors :
(43)
de même :
(44)
L’isotropie de l’espace impose :
(45)
La loi des probabilités composées implique :
(46)
Déterminer les fonctions et relève de la méthodologie mathématique suivante :
(47)
Puisque :
(48)
Ce qui nous donne finalement :
(49)
Le membre de gauche de la dernière égalité dépend uniquement de v , celui de droite uniquement de . Le résultat ne peut être qu’une constante que nous noterons . Il suit que :
(50)
En intégrant :
(51)
Donc :
(52)
et posons . Il vient donc :
(53)
Donc identique :
(54)
La loi des probabilités composées impliquant :
(55)
Nous avons finalement :
(56)
Remarquons que est nécessairement négatif sinon la probabilité pour une molécule d’avoir une composante de vitesse infinie serait infinie ce qui voudrait dire que toutes les molécules seraient à vitesse infinie et que l’énergie serait infinie !!!
Nous posons :
avec (57)
Finalement, il vient que :
(58)
Il nous reste à normaliser A. La probabilité pour une molécule d'avoir une composante de vitesse comprise entre ou une intensité de vitesse comprise entre est égale à (100% de chances).
Ainsi :
(59)
Nous avons jusqu'ici parlé en terme de probabilités. Un langage équivalent consiste à chercher, dans une enceinte contenant N molécules, le nombre dN de molécules ayant certaines caractéristiques, à savoir par exemple, le nombre de molécules ayant une composante de vitesse comprise entre et . Ce nombre étant bien évidemment égal dans une dimension à :
(60)
Plus généralement :
(61)
Pour obtenir dP nous nous plaçons dans l’espace des vitesses c’est-à-dire un repère cartésien de coordonnées . Les composantes ne sont pas indépendantes puisque liées par la relation : .
L’extrémité des vecteurs vitesse ayant une intensité de vitesse v, c’est à dire des composantes de vitesse liée par la relation ci-dessus, se trouve dans l’espace des vitesses sur la sphère de rayon . Il en sera de même pour l’extrémité des vecteurs vitesse ayant une intensité .
Dans l’espace des vitesses, nous délimitons une portion d’espace comprise entre la sphère de rayon v et la sphère de rayon , de volume égale à .
La probabilité est proportionnelle à c’est-à-dire au volume élémentaire dans l’espace de vitesse. Pour obtenir , nous devons intégrer à tous les vecteurs vitesse possibles c’est à dire ayant leur extrémité entre les deux sphères. Cette intégration est particulièrement simple puisque l’intensité de la vitesse dans cette espace (inter-volume) est constante. Nous obtenons donc :
(62)
et ainsi, dans une enceinte contenant N molécules, le nombre de molécules dN(v) ayant un module de vitesse compris entre v et est :
(63)
Rappel : La valeur moyenne d’une grandeur G est le produit de G multipliée (pondérée) par la probabilité d’obtenir G intégré à toutes les valeurs possibles de cette grandeur telle que :
(64)
Donc :
ou (65)
La thermodynamique, ou la mécanique des fluides (voir théorème du Viriel) nous donne pour un gaz parfait monoatomique (cf. chapitres de Mécanique Des Milieux Continus et de Thermodynamique), de capacité calorifique et volume constant :
(66)
Si nous formulons l’hypothèse que la partie de l’énergie liée à la température est due à l’agitation cinétique des molécules, nous pouvons écrire :
(67)
et donc :
(68)
Ainsi, nous avons finalement :
(69)
Qui est donc la distribution des vitesses dans un gaz monoatomique dont voici un exemple de tracé (les unités des axes en ordonnées sont arbitraires) :
(70)
La relation précédente donne donc la proportion des molécules de gaz ayant à un instant t donné une vitesse v. Nous avons alors pour une direction spatiale (en adoptant les développements précédents on tombe relativement facilement sur ce résultat):
(71)
Cette fonctionde distribution correspond donc à une répartition gaussienne (cf. chapitre de Statistiques) et permet donc de définir la vitesse la plus probable (le "mode" comme on dirait en statistiques) notée , qui correspond au maximum de la courbe f(v), soit la où la dérivée première est nulle :
(72)
Dès lors :
(73)
d'où :
(74)
et la vitesse moyenne (l'espérance) est alors donnée par :
(75)
Nous avons donc une intégrale du type :
(76)
Le mieux est de décomposer en et on intègre par parties. Nous avons alors :
(77)
La dernière intégrale est facilement calculable. C'est la même que dans le chapitre de statistique pour la loi de Gauss-Laplace. Donc :
(78)
Il vient finalement :
(79)
DISTRIBUTION DE MAXWELL-BOLTZMANN (non corrigée)
En physique quantique corpusculaire, nous apprenons que l’énergie d’une particule est quantifiée, c'est à dire que les valeurs possibles pour l’énergie forment un spectre discret. Même si, dans un certain nombre de situations courantes, pour une particule et encore plus pour un système constitué d'un grand nombre de particules, les niveaux d'énergie sont si serrés que nous pouvons traiter, sur le plan mathématique, ce spectre comme continu (approximation du continuum), il n'empêche qu'en toute rigueur ils sont quantifiés. Cette approche quantitifée de distributions physique au niveau corpusculaire de la matière est souvent désignée sous le nom de "statistique quantique".
Une particule, ayant un niveau d’énergie, peut être dans différents sous-états.
Nous savons (nous n’avons pas utilisé l’équation de Schrödinger en physique quantique corpusculaire pour le montrer strictement) que, pour décrire un atome, nous introduisons quatre nombres quantiques, à savoir :
- le nombre quantique principal qui quantifie l’énergie,
- le nombre quantique secondaire qui quantifie le moment cinétique
- le nombre quantique magnétique qui quantifie le moment magnétique
- le spin qui quantifie la rotation propre des électrons de l’atome
Ainsi pour une même énergie (pour une valeur particulière du nombre quantique principal), un atome peut posséder différentes valeurs des nombres quantiques secondaire, magnétique ou de spin.
Pour qualifier la possibilité de sous-états correspondant à une même énergie, nous employons l’expression "dégénérescence" et nous traduisons par la variable le nombre de dégénérescences correspondant à un même niveau d’énergie.
Nous allons considérer un système composé de N particules qui se placent sur K différents niveaux d'énergie . Nous trouvons particules sur le niveau d'énergie . Nous avons les relations suivantes pour l'énergie totale (que nous notons par la même lettre que celle utilisée en thermodynamique) et pour le nombre de particules (même remarque que pour l'énergie totale) :
(80)
Nous supposerons (c'est important) ces quantités constantes. Le système est entièrement déterminé par la distribution des particules sur les K niveaux.
Il existe un grand nombre de configurations microscopiques possibles qui sont compatibles avec la distribution . Il y en a (voir les permutations avec répétition dans le chapitre de probabilité et statistiques) :
(81)
Mis nous avons négligé la dégénérescence possible des niveaux i. S'il existe sous-niveaux dont l'énergie est , nous avons alors trivialement :
(82)
Remarque: est donc la dégénérescence de l'état d'énergie , à savoir le nombre d'états possédant cette énergie.
En prenant le logarithme, il vient :
(83)
et en utilisant la formule de Stirling (cf. chapitre de Méthodes Numériques) :
(84)
Nous avons :
(85)
Nous recherchons maintenant la distribution la plus probable, c'est-à-dire celle qui maximise . Pour trouver l'extremum, nous allons différencier cette expression tel que :
(86)
Or, comme :
(87)
où sont des constantes qui permettent de s'assurer de la cohérence de l'analyse dimensionnelle (des unités quoi...).
Il est donc équivalent et nécessaire d'écrire pour prendre en compte également ses paramètres intrinsèques (le fait d'ajouter ainsi des termes nuls est nommé "méthode des multiplicateurs de Lagrange"):
(88)
Donc :
(89)
ce qui donne après une première simplification (élimination simple de la dérivée des constantes):
(90)
Ce qui nous amène à écrire :
(91)
Ce qui nous donne finalement :
(92)
Mais cela équivaut aussi à rechercher :
(93)
d'où :
(94)
Rappelons que nous avons pour l'entropie de ce système :
(95)
et donc :
(96)
et comme :
(97)
Nous avons donc :
(98)
La thermodynamique nous conduit à (cf. chapitre de Thermodynamique) :
(99)
Or, si toutes les particules sont identiques donc :
(100)
Ce qui finalement conduit à :
(101)
et nous amène à :
(102)
et donc :
et (103)
Nous pouvons donc récrire la relation de Maxwell-Boltzmann :
(104)
Comme , nous avons :
(105)
Nous pouvons alors calculer et nous obtenons ainsi la "formulation discrète" de la "statistique de Maxwell-Boltzmann":
(106)
Cette relation donne donc le rapport entre le nombre de particules qui n'interagissant pas entre elles (par hypothèse) et pouvant prendre les différents états d'énergie discrets et le nombre de particules dans un état d'énergie donné . Ainsi, connaissant N, il est possible à l'aide de cette relation de connaître le nombre de particules dans un état d'énergie particulier.
Remarque: La statistique de Maxwell-Boltzmann s'applique en l'absence d'interaction entre particules et est donc valable pour un gaz parfait mais ne s'applique pas, par exemple, à un liquide. De plus, elle s'applique aux hautes températures lorsque les effets quantiques sont négligeables. À basse température sont utilisées la statistique de Bose-Einstein pour les bosons et la statistique de Fermi-Dirac pour les fermions (voir plus loin).
Nous appelons le terme au dénominateur, la "fonction de partition canonique". Elle est le plus souvent notée tel que :
(107)
DISTRIBUTION DE FERMI-DIRAC
Le principe d'indiscernabilité peut avoir des conséquences très importantes sur la statistique. Nous distinguons deux types de particules indiscernables : les bosons et les fermions.
Rappels :
R1. Les premiers correspondent à des particules dont la fonction d'onde représentative est toujours symétrique alors que celles des fermions est antisymétrique.
R1. Le principe d'exclusion de Pauli impose que 2 fermions ne peuvent pas se trouver dans le même état quantique. Les bosons, eux le peuvent !
Leurs propriétés respectives ont pour conséquence importante que l'énergie minimale d'un ensemble de N bosons est égale à N fois l'énergie minimale de chaque boson. Alors que pour un ensemble de fermions, l'énergie minimale est égale à la somme des N énergies les plus faibles.
Ces deux types de particules entraînent deux types de statistiques : la statistique de Fermi-Dirac (que nous allons démontrer en premier) et la statistique de Bose-Einstein (qui suivra).
Il n'existe donc qu'une seule manière de répartir fermions sur les états d'énergies accessibles (au lieu des N! pour les particules discernables). Il ne peut pas y avoir plus de particules dans un niveau d'énergie qu'il existe de dégénérescence . Donc . Le nombre de combinaisons possible pour un niveau , dégénéré fois et comportant particules est donc la combinatoire . Le nombre total de configurations est donc :
(108)
La statistique est donc bien différente du cas classique de Maxwell-Boltzmann. En prenant le logarithme du nombre de micro-états et en faisant usage de la formule de Stirling, il vient :
(109)
Que nous pouvons déjà simplifier une première fois :
(110)
et en différenciant cette expression pour trouver le maximum, nous obtenons :
(111)
Terme à terme :
(112)
Or, nous avons par conservation et par symétrie :
(113)
Donc finalement :
(114)
Pour respecter les contraintes sur l'énergie et le nombre de particules, nous utilisons encore une fois la méthode des multiplicateurs de Lagrange :
(115)
Ce qui nous amène à la distribution de Fermi-Dirac :
(116)
Les paramètres et jouent le même rôle que dans la distribution de Maxwell-Boltzmann. Nous avons ainsi :
et (117)
La distribution s'écrit alors :
(118)
Ainsi, en mécanique quantique, la statistique de Fermi-Dirac désigne la distribution statistique de fermions indiscernables (tous similaires) sur les états d'énergie d'un système à l'équilibre thermodynamique.
Pour les systèmes macroscopiques, les niveaux d'énergie sont si serrés (ou tellement nombreux) que nous pouvons considérer le spectre d'énergies comme continu (approximation du continuum).
Nous raisonnerons donc dans ce contexte, ce qui nous permet d'écrire en normant aux nombres de particules mises en jeu (tout ce que l'on demande à la fonction de Fermi-Dirac c'est de nous dire comment sont réparties les N particules) :
(119)
ou:
(120)
pour la fonction de Fermi-Dirac avec le tracé correspondant.
De manière numérique, nous pouvons simuler l'évolution de l'allure de la distribution (qui n'est pas une distribution dans le sens mathématique du terme) en fonction de l'énergie et de la température. Pour cela, nous supposons pour simplifier que la constante de Boltzmann vaut 1 et que le potentiel chimique m2 (nous notons que celui-ci est dans l'absolu fonction de la température). Ainsi, nous pouvons écrire le petit programme suivant sous Matlab :
clear all;kb=1; % Constante de Boltzmann
mu=2; % Potentiel Chimique
T=0.001:0.1:1; % " Gradient " de température pour le programme
for j=1:length(T)
beta(j)=1/(kb*T(j));
epsilon=0.1:0.1:4;
for i=1:length(epsilon)
Nf(i,j)=1/(exp(beta(j)*(epsilon(i)-mu))+1); % Nb(epsilon,beta) moyen de fermions au
end % niveau d'énergie epsilon
hold on %
plot(epsilon,Nf(:,j));
pause(0)
end
(121)
Au zéro absolu nous voyons que nous avons une marche. Elle vaut 1 si E est inférieur à et 0 pour les valeurs supérieures (le système choisit sont état d'énergie minimale où les N particules occupent les N états de plus basse énergie, à raison de une par état).
Le potentiel chimique est donc le dernier niveau occupé au zéro absolu. Nous le notons en physique et nous l'appelons "niveau de Fermi".
La principale application aux solides de cette statistique est la modélisation des phénomènes de transport électronique (gaz d'électrons) : théorie des métaux, des semi-conducteurs (population des niveaux d'énergie et propriétés de conduction).
DISTRIBUTION DE BOSE-EINSTEIN
Les bosons sont d'autres particules quantiques qui peuvent indistinctement se placer sur tous les niveaux d'énergie. Le principe de Pauli ne s'y applique donc pas! Dans ce cas, le nombre d'objet à permuter est (les particules et les intervalles entre les niveaux). Parce que les particules sont indiscernables et les niveaux et sous niveaux permutables, il faut diviser par puis aussi par Le nombre de configurations sur un niveau , fois dégénéré qui contient particules indiscernables est ainsi égal à :
(122)
Son logarithme avec usage de la formule de Stirling et après simplification est donné par :
(123)
Le maximum de correspond à annuler , soit :
(124)
Pour respecter les contraintes sur l'énergie et le nombre de particules, nous utilisons encore une fois la méthode des multiplicateurs de Lagrange :
(125)
et donc :
(126)
qui est la distribution statistique de Bose-Einstein. Cette distribution diverge lorsque . C'est la "condensation de Bose-Einstein". Dans cet état, tous les bosons se retrouvent dans le même état.
Les paramètres et jouent le même rôle que dans la distribution de Maxwell-Boltzmann et Fermi-Dirac. Nous avons ainsi :
et (127)
La distribution s'écrit alors :
(128)
Ainsi, en mécanique quantique, la statistique de Bose-Einstein désigne la distribution statistique de bosons indiscernables (tous similaires) sur les états d'énergie d'un système à l'équilibre thermodynamique.
Pour les systèmes macroscopiques, les niveaux d'énergie sont si serrés (ou tellement nombreux) que nous pouvons considérer le spectre d'énergies comme continu (approximation du continuum).
Nous raisonnerons donc dans ce contexte, ce qui nous permet d'écrire ce qui nous permet d'écrire en normant aux nombres de particules mises en jeu (tout ce que l'on demande à la fonction de Fermi-Dirac c'est de nous dire comment sont réparties les N particules):
(129)
pour la fonction de Bose-Einstein. Elle n'est donc définie que pour les énergies supérieures au potentiel chimique (sinon quoi elle est négative!).
De manière numérique, nous pouvons simuler l'évolution de l'allure de la distribution en fonction de l'énergie et de la température. Pour cela, nous supposons pour simplifier que la constante de Boltzmann vaut 1 et que le potentiel chimique m2 (nous notons que celui-ci est dans l'absolu fonction de la température). Ainsi, nous pouvons écrire le petit programme suivant sous Matlab :
clear all;kb=1; % Constante de Boltzmann
mu=2; % Potentiel Chimique
T=0.001:0.1:1; % " Gradient " de température pour le programme
for j=1:length(T)
beta(j)=1/(kb*T(j));
epsilon=0.1:0.1:4;
for i=1:length(epsilon)
Nf(i,j)=1/(exp(beta(j)*(epsilon(i)-mu))-1); % Nb(epsilon,beta) moyen de fermions au
end % niveau d'énergie epsilon
hold on %
plot(epsilon,Nf(:,j));
pause(0)
end
(130)
À haute température, lorsque les effets quantiques ne se font plus sentir, la statistique de Bose-Einstein, comme la statistique de Fermi-Dirac qui régit les fermions, tend vers la statistique de Maxwell-Boltzmann. Aux basses températures, cependant, les statistiques de Bose-Einstein et de Fermi-Dirac en diffèrent et diffèrent entre elles. Nous nous plaçons, par exemple, à température nulle : dans la première, nous attendons alors que le niveau de plus basse énergie contienne tous les bosons, tandis que dans la seconde, les niveaux de plus basse énergie contiennent fermions.
Par ailleurs, à température nulle (273.15 [°K]), la statistique de Bose-Einstein montre de manière évidente que toutes les particules doivent occuper le même état quantique : celui de plus basse énergie. Ce phénomène est observable à l'échelle macroscopique et constitue un "condensat de Bose-Einstein".
La statistique de Bose-Einstein est utile à la compréhension des phénomènes électromagnétiques ondulatoire car les photons sont des Bosons (rayonnement du corps noir, interaction matière/rayonnement). Elle est très largement utile à l'étude des phénomènes vibrationnel dans les solides (les phonons suivent la statistique de Bose-Einstein). Elle a aussi été utilisée pour expliquer les transitions de phase dans l’Hélium (phénomène à très basse température).
Remarque: La statistique de Bose-Einstein a été introduite par Satyendranath Bose en 1920 pour les photons et généralisée aux atomes par Albert Einstein en 1924.
LOI DE FICK
Nous avons vu dans le chapitre de Thermodynamique la démonstration de l'équation de propagation de la chaleur proposée par Fourier en 1822 obtenue à partir de l'équation de continuité. Nous avions obtenu (il est très recommandé au lecteur de s'y référer à nouveau ne serait-ce que pour lire les remarques relatives à la démonstration):
(131)
En sa basant sur les mêmes hypothèses que Fourier, Fick proposa en 1855 qu'un flux de particules pourrait se diffuser à travers un matériau selon une loi similaire, la "deuxième loi de Fick", de la forme:
(132)
où la constante de proportionnalité est le "coefficient de diffusion de la matière" et la densité de particules par unité de volume (et non la densité de masse!).
Remarque: En pratique, la diffusion joue un rôle essentiel dans la fabrication de céramique, de semi-conducteurs (dopage), de cellules-solaires et dans la solidifcaiton des métaux (traitement au carbone et à la chaleur). Car lorsque deux matériaux chauffés sont mis en contact, leurs atomes diffusent l'un dans l'autre.
Il faut comprendre que tout diffuse dans tout! Donc pensez au pesticides sur les fruits et légumes, à la pollution dans les nappes phréatiques, au PET dans les boissons...
Dès lors, la relation du flux surfacique de chaleur que nous avions utilisée en thermodynamique (voir chapitre du même nom) pour obtenir la loi de Fourier et qui était:
(133)
peut alors s'écrire certainement aussi (nous allons le démontrer) dans la cas de la masse sous la forme d'un flux surfacique de particules appelé "première loi de Fick":
(134)
où D est le coefficient de transport de la matière (à déterminer…).
Remarque: Au fait, Fick démontra d'abord la première loi et en procédant en tous points de manière identique à l'équation de la chaleur il obtint la deuxième loi qui porte son nom.
Les coefficients sont appelés globalement "coefficients de transports" et respectivement "coefficient de diffusion thermique" dans le domaine de la chaleur et "coefficient de diffusion" dans le domaine de la matière.
Nous pouvons estimer les valeurs de ces coefficients à l'aide d'un modèle microscopique simple.
Considérons pour cela une tranche de fluide (flux de chaleur et flux de masse sont considérés comme un fluide) perpendiculaire à l'axe des x et d'épaisseur où correspond au libre parcours moyen (projeté selon x), dans laquelle existe un gradient de concentration dirigé selon l'axe x. Déterminons le courant de ce gradient à travers la section S d'abscisse x.
Pour faire simple, nous pouvons considérer que, parmi toutes les particules se trouvant entre l'abscisse et x, un tiers, ont leur vitesse dirigée selon x (les deux autres tiers étant sur y et z), et parmi ces dernières, la moitié ont une vitesse positive. (finalement nous devons considérer le 1/6 par direction)
Comme est le libre parcours moyen, ces dernières particules franchiront la section S sans avoir subi de collision: elles participeront donc au courant de diffusion.
Notant la concentration volumique à l'abscisse (et considérant que cette concentration est constante entre et x, ce qui, vu l'ordre de grandeur de , est à peu près vérifié). Le nombre de particules se trouvant entre les abscisses et x et traversant effectivement la section s vaut alors:
(135)
Cette traversée prend un temps égal à , où est la vitesse moyenne d'agitation thermique. Par conséquent, la densité de courant circulant de la gauche vers la droite vaut:
(136)
En procédant de la même manière pour les particules se trouvant à droite de x, nous obtenons pour la densité de courant circulant de droite à gauche:
(137)
La densité de courant totale circulant à travers S vaut donc:
(138)
Or, nous pouvons aussi écrire cela sous la forme:
(139)
Si est très petit, nous pouvons écrire:
(140)
Vu les simplifications apportées au modèle, le facteur 3 a toutes les chances d'être peu réaliste. En revanche, la relation de proportionnalité entre gradient de concentration et courant de diffusion est tout à fait crédible, Nous écrirons finalement en généralisant à l'espace:
(141)
où D est alors donné par:
(142)
est la constante de diffusion massique. Comme D est positive, nous constatons que le mouvement de diffusion des particules a lieu dans le sens opposé au gradient, ce qui tend bien à homogénéiser les concentrations.
Remarque: Si nous souhaitons obtenir le flux de charge, il suffit de multiplier la relation obtenue à gauche et à droite par la charge élémentaire.
Nous pouvons également estimer le flux d'énergie thermique transporté par ces mêmes particules selon x. En effet, dans chaque tranche de fluide, n particules transportent chacune une énergie E correspond à une quantité de chaleur Q donnée (selon la loi de Joule). Nous avons donc un flux surfacique d'énergie dont la première composante est donnée par le même type de bilan que les développements précédents:
(143)
Nous y trouvons immédiatement la définition de la capacité calorifique (si nous divisons par une la masse nous aurions la capacité calorifique massique selon ce que nous avons vu dans le chapitre de thermodynamique). Ainsi, dans le cas unidimensionnel:
(144)
Il y a donc un simple rapport de proportionnalité entre et C.
Remarque: Selon les auteurs le flux est noté avec le symbole de la densité de courant, soit .
Faisons un petit tableau récapitulatif pour les quelques lois de diffusion démontrées jusqu'à maintenant sur ce site (dans leurs chapitres respectifs) en utilisant la notation la plus courante en physique (et non celle des thermodynamiciens...):
Loi de Fourier
Loi de Fick
Loi d'Ohm
Thermodynamique
Mécanique Statistique
Électrocinétique
Densité de courant thermique T : température
Densité de courant particulaire: concentration
Densité de courant électrique U : potentiel électrique