La mécanique thermique ou "thermodynamique" est la partie de la physique qui traite des relations entre le travail mécanique, la chaleur et les transformations chimiques dans le cadre de l'étude des gaz, des solides, des fluides ou des plasmas.
Il existe plusieurs formes de la thermodynamique en fonction des outils mathématiques et du contexte utilisés. Citons pour exemples: la thermodynamique classique, la thermodynamique chimique, la thermodynamique relativiste, la thermodynamique statistique (classique et relativiste) et la thermodynamique quantique.
La thermodynamique est susceptible d'être aborée à l'aide de deux démarches différentes, l'approche phénoménologique qui s'appuise sur des considérations macroscopiques et l'approche statistique qui s'appuie sur des considérations moléculaires et sur le calcul de probabilités (développée par Boltzmann et Maxwell).
Remarque: Nous ne reviendrons pas sur la définition de la température absolue notée T qui est comme nous l'avons vu en Mécanique Des Milieux Continus (théorème du Viriel) et en Mécanique Statistique (rayonnement du corps noir, distributions d'états), est un paramètre qui permet de relier avantageusement le mouvement moyen de différents corps avec leur énergie cinétique moyenne (sous-entendu leur "excitation" ou "désordre") ou le rayonnement de certains corps avec leur énergie d'émission. Cette introduction avait aussi justifié l'abandon du degré Celsius au bénéfice du degré Kelvin.
Les objectifs de la thermodynamique sont:
1. Avec un minimum de variables (à déterminer) de pouvoir déterminer l'état et les échanges énergétiques d'un système sous des contraintes prédéfinies et souvent idéales... (très important dans le vie de tous les jours!).
2. De trouver les variables telles que ces différentes informations puissent être obtenues en ne connaissant que l'état final et initial du système (nous parlons alors de "variables d'état").
3. De se débrouiller à ramener les équations toujours à une forme mettant en évidence des variables facilement mesurables dans la pratique.
Nous verrons plus loin que tout système peut au point de vue énergétique être décrit par:
- Son volume, sa masse, sa pression, sa température (énergie cinétique moyenne interne)...
- Son énergie potentielle (par rapport à l'extérieur), son énergie cinétique extérieure (par rapport à l'extérieur)...
- Ses propriétés physiques comme la capacité à absorber la chaleur, à irradier, sa densité...
Ce que nous allons par ailleurs étudier dans ce chapitre est le strict minimum à savoir pour étudier l'acoustique (cf. chapitre de Musique Mathématique), la météorologie (cf. chapitre de Génite Météo et Marin) et la physique des plasmas (cf. chapitre des Milieux Continus) ainsi que le physique quantique (cf. chapitre de Physique Quantique Ondulatoire).
VARIABLES thermodynamiques
En thermodynamique il existe plusieurs concepts majeurs très utiles suivant le type de système isolé, maintenu ou laissé en libre évolution étudié et les moyens de mesure à disposition.
Nous souhaitons ici donner les définitions des plus importantes et nous démontrerons leur provenance plus tard dans l'ordre énoncé:
Définitions:
D1. Un "système" est un corps ou un groupe de corps subissant des évolutions et auquel nous nous intéressons. Il constitue un ensemble bien défini et bien délimité dans l'espace et entouré par le milieu extérieur. L'ensemble système/milieu extérieur est dénommé "univers".
D2. Le "travail", noté W est dans le cadre de la thermodynamique, l'énergie associée à la valeur ou au changement de la dynamique d'un système par l'agissement de forces mécaniques diverses (d'où le choix du terme "travail"...) par l'intermédiaire des relations de la mécanique classique.
D3. La "chaleur", notée Q est dans le cadre de la thermodynamique, l'énergie associée à la valeur ou au changement de la dynamique d'un système dû à l'agitation moyenne des molécules (énergie cinétique moyenne) par l'intermédiaire du théorème du Viriel.
D4. "L'énergie totale", notée E d'un système est la somme de toutes les énergies qui spécifient ce système par rapport à son centre de masse (moment d'inertie, de masse, énergie cinétique interne,...) et aussi (!) par rapport à un référentiel extérieur (énergie cinétique, énergie potentielle, rayonnement entrant).
D5. "L'énergie interne", notée U d'un système est la somme de toutes les types d'énergies internes pertinentes qui le distinguent uniquement par rapport à son centre de masse tel que: le travail WQ échangée avec l'extérieur ou la chaleur interne (énergie cinétique moyenne), l'énergie de masse (relativiste, nucléaire)... échangé avec l'extérieur, la chaleur
D6. "L'entropie", notée S permet dans le cadre de la thermodynamique de quantifier la qualité et le sens d'évolution de l'énergie d'un système. Nous démontrerons que l'entropie d'un système isolé ne peut que croître. Par exemple, les frottements dans entraînent une dissipation interne de la chaleur et donc une désorganisation des molécules sous forme d'agitation des molécules!
D7. "L'enthalpie", notée H est la quantité de chaleur, reçue par un système qui évolue à pression constante (isochore). En chimie ce concept est très utile car dans une transformation chimique une partie de l'énergie injectée aura juste servie à repousser l'atmosphère ambiante lors du changement de volume dans la transformation. Ainsi, l'enthalpie rajoute à l'énergie interne U un terme correctif prenant en compte l'environnement ambiant.
D8. "L'énergie libre" ou "énergie de Helmoltz", notée F caractérise la fraction d'énergie interne utilisable. Elle est simplement la différence entre l'énergie interne et l'énergie calorique dissipée à cause de l'entropie à une température donnée.
D9. "L'enthalpie libre" ou "énergie libre de Gibbs", notée G caractérise la fraction d'enthalpie disponible. Elle est simplement la différence entre l'enthalpie et l'énergie calorifique dissipée à cause de l'entropie à une température donnée.
Pour résumer, dans l'ordre d'apparition et d'importance en physique:
Symbole
Légende
W
travail
Q
chaleur
P
pression
T
température
V
volume
E
énergie totale
U
énergie interne
S
entropie
H
enthalpie
F
énergie libre
G
enthalpie libre
(1)
SYSTÈMES THERMODYNAMIQUES
D'une manière générale, un système thermodynamique est l'ensemble des corps situés à l'intérieur d'une surface fermée que nous appelons "frontière". Enfin, signalons que la frontière peut se limiter à une surface élémentaire dS associée avec son vecteur normal enveloppant une particule fluide (voir le chapitre de Génie Météo pour un bon exemple!). Nous l'appelons dans ce cas "frontière particulaire".
Il est souvent intéressant en thermodynamique, de faire le bilan des énergies qui sont transférées entre le système thermodynamique et le milieu extérieur, c'est-à-dire de considérer tout ce qui traverse la frontière. Les principaux transferts (mais pas les seuls!) susceptibles d'être opérés sont:
1. Le "Transfert-travail" W : Travail (mécanique) effectué par une force sur une distance.
2. Le "Transfert-chaleur" Q : Énergie provenant de la variation du nombre de micro-états d'un système régit par la mécanique statistique comme nous le démontrerons plus loin.
3. Le "Transfert de masse" M : Masse injectée dans de le système.
Définitions:
D1. Quand aucun transfert-travail n'est opéré, le système est dit "système sans travail".
D2. Quand aucun transfert-chaleur n'est opéré, le système est dit "système adiabate".
D3. Quand aucun transfert de masse n'est opéré, le système est dit "système fermé".
D4. Quand il n'y a aucun transfert quelqu'il soit, le système est dit "système isolé" ou "sans transvasement".
Remarques:
R1. Il n'empêche que certains systèmes voient le bilan des actions extérieures qui leurs sont appliquées nul. Ils sont alors dit "pseudo-isolés".
R2. Un système est un "système homogène" si la nature de des constituants est égale en tout point, alors qu'il est un "système uniforme" ou "système isotrope" si ses caractéristiques sont égales en tout point.
transformationS thermodynamiqueS
Une "transformation thermodynamique" est l'opération au cours de laquelle l'état du système se modifie en passant d'un état initial à un état final.
Nous en distinguons au moins de deux types:
D2. Une "transformation thermodynamique quasistatique" amène un système d'un état initial à un état final à travers une succession d'états qui sont exclusivement des états d'équilibre.
D3. Quand dans une transformation toutes les variables d'état changent simultanément, la transformation est alors dite "transformation polytropique".
Il est possible que certaines variables restent constantes lors d'une transformation thermodynamique, dans ce cas nous distinguons les cas suivants :
Symbole
Légende
Dénomination
P
pression
isobare
T
température
isotherme
V
volume
isochore
U
énergie interne
isoénergétique
S
entropie
isentropique
H
enthalpie
isenthalpique
Q
chaleur
adiabatique
G
enthalpie libre
extensive
(2)
Remarque: Les études isobares sont d'un intérêt pratique important puisque tous les systèmes en contact avec l'atmosphère sont évidemment maintenus à pression constante.
Dans les types de transformations thermodynamiques nous en distinguons deux sous-types principaux :
1. Le "cycle thermodynamique fermé" : le système décrit une suite de transformations telle que l'état final et l'état initial de la transformation est identique et que la quantité et les propriétés des éléments participants au cycle sont toujours les mêmes.
2. Le "cycle thermodynamique ouvert" : le système décrit une suite de transformations telle que l'état final et l'état initial de la transformation est identique et que la quantité et les propriétés des éléments participants au cycle ne sont pas toujours les mêmes
VARIABLES THERMODYNAMIQUES
Définition: "L'état thermodynamique" d'un système est l'ensemble des propriétés qui le caractérisent, indépendamment de la forme de sa frontière. Les variables qui décrivent l'état du système sont appelées "variables d'état" ou "grandeurs d'état".
La définition précédente suppose implicitement l'existence d'un état et des variables d'état, c'est-à-dire que les grandeurs caractéristiques du système sont définies (ou théoriquement accessibles dans le sens de la mesure) à tout instant et en tout point du système. Ceci est loin d'être évident si nous considérons des évolutions rapides telles que chose ou explosions.
Cette difficulté peut être éludée en se retranchant sur "l'hypothèse de l'état local" : Nous supposons qu'à tout instant, les grandeurs caractéristiques ont localement les mêmes expressions que dans une configuration stationnaire, ce qui sous entend que les temps nécessaires aux changements d'état sont négligeables devant les durées caractéristiques de l'évolution.
Le choix des variables d'état dépend de la nature du problème traité. Nous pouvons néanmoins séparer l'ensemble de ces variables d'état en :
1. Des variables d'état dites "grandeurs extensives", proportionnelles à la quantité de matière et donc du nombre d'atomes/molécules du système servant à les définir (donc elles sont additives). C'est typiquement le cas de la masse, le volume, l'entropie,...
2. Des variables d'état dites "grandeurs intensives", indépendantes de la quantité de matière (donc par extension, non additives). C'est typiquement le cas de la pression, la température, ...
D'une manière générale, une variable intensive dépend du point envisagé dans le système étudié (température, concentrations, peuvent varier d'une point à l'autre) alors que la grandeur extensive est définie sur la globalité du système.
Par l'exemple, montrons que le rapport de deux variables extensives est un grandeur intensive:
Rappelons la loi de Boyle-Mariotte (approximation de l'équation de Van der Waals démontrée dans le chapitre de Mécanique Des Milieux Continus) :
(3)
Nous pouvons calculer la concentration C (à ne pas confondre avec la notation de la capacité calorifique que nous verrons plus loin!), qui est une grandeur intensive donc, par le rapport de deux grandeurs extensives n, V:
(4)
Les fonctions d'état possèdent par ailleurs une propriété particulière : leurs variations ne dépendent pas de la nature de la transformation qui affecte le système mais uniquement des états final et initial du système à l'équilibre (ce qui est très utile en pratique...!). Il s'agit du concept d'intégrale de chemin que nous avons déjà traité dans le chapitre de mécanique classique.
Citons:
Symbole
Légende
Grandeur
P
pression
intensive
T
température
intensive
V
volume
extensive
E
énergie totale
extensive
U
énergie interne
extensive
S
entropie
extensive
H
enthalpie
extensive
F
énergie libre
extensive
G
enthalpie libre
extensive
(5)
A l'opposée, le travail W et la chaleur Q ne sont pas des variables d'état. Néanmoins il existe des cas particuliers où la chaleur et le travail ne dépendent plus du chemin suivi lorsque les transformations s’effectuent soit à pression constante (voir enthalpie), soit à volume constant (voir énergie interne).
PHASES
Définition: Un système dans lequel les différentes grandeurs intensives varient de façon continue constitue une "phase".
Nous pouvons donc considérer que toute grandeur intensive dépend des coordonnées du point envisagé : le système est constitué par une seule phase si la grandeur intensive est continue dans tout le système. C'est le cas des gaz, des liquides et de certains solides constituant des solutions solides.
Si la grandeur intensive présente une discontinuité (ou plusieurs), le système est dit "polyphasique". Cepenant, si les grandeurs intensives ont même valeur en tout point du système, la phase est dite "phase uniforme" : le système a alors même température, pression, composition en chacun de ses points.
Pour un système homogène, il peut être commode de ramener les variables extensives à l'unité de masse. Nous parlons alors de "grandeurs massiques" (ou "spécifiques"), généralement notées en minuscules.
Nous utilisons si possible pour éviter toute confusion les règles de notation suivantes :
- Toute grandeur non massique est représentée par une lettre latine majuscule romaine
- Toute grandeur massique (très utilisée en chimie!) est représentée par une lettre latine minuscule
Dans le cas contraire nous spécifierons de quelle type de variable il s'agit.
PRINCIPES DE LA THERMODYNAMIQUE
Les principes de la thermodynamique sont les briques de la mécanique énergétique ou thermique. Chaque principe implique une grande quantité de concepts que nous essaierons de présenter et définir au mieux. C'est la partie "sensible" de ce domaine de la physique.
La thermodynamique est basée sur quatre principes fondamentaux qui sont au fait à notre époque tous démontrables:
P0. Le "principe zéro de la thermodynamique" ou "principe de l'équilibre thermique" concerne donc la notion d'équilibre thermique et est défini ainsi: Si deux systèmes thermodynamiques 1 et 2 sont en équilibre thermodynamique avec un troisième 3, ils sont eux-mêmes en équilibre thermodynamique (il s'agit d'une assertion dans le langage de la théorie de la démonstration)..
Autrement dit: Si deux corps sont en équilibre thermique, ils ont la même température. Deux corps à même température sont en équilibre thermique.
Remarque: Nous avons utilisé ce principe implicitement (lorsque nous avons énoncé que l'état d'équilibre était le plus probable) dans le chapitre de Mécanique Statistique pour démontrer la loi de Boltzmann.
P1. Le "premier principe de la thermodynamique" ou "principe de conservation" concerne le caractère conservatif de l'énergie et s'énonce ainsi: Au cours d'une transformation quelconque d'un système fermé, la variation de son énergie est égale à la quantité d'énergie échangée avec le milieu extérieur, sous forme de chaleur et sous forme de travail:
Démonstration: Cette relation que nous avons déjà rencontrée dans le chapitre des Principes de la Mécanique provient de l'invariance des lois de la physique dans le temps (théroème de Noether) et dont la forme générale est:
P2. Le "deuxième principe de la thermodynamique" appelé aussi "principe de Carnot-Clausius" ou "principe d'évolution" concerne le caractère d'irréversibilité et le concept d'entropie et s'énonce ainsi: La chaleur ne peut passer d'elle-même que d'un corps chaud à un corps moins chaud. L'opération inverse nécessite l'apport de travail mécanique pris sur les système extérieur ce qui est donné par la relation (démontrée un peu plus loin):
Démonstration: Cette relation découle la loi de Boltzmann sur l'accès à l'information dans un système (cf. chapitre de Mécanique Statistique):
P3. Le "troisième principe de la thermodynamique" ou "principe de Nernst" concerne les propriétés de la matière dans le voisinage du zéro absolu et s'énonce ainsi: À la limite du zéro absolu (0 [K]), température qui ne saurait être atteinte (voir les développements de l'oscillateur harmonique dans le chapitre de physique quantique ondulatoire), l'entropie d'équilibre d'un système tend vers une constante indépendante des autres paramètres intensifs, constante qui est prise nulle.
Démonstration: Il s'agit du "théorème de Nernst" dont le résultat formel est simplement basé sur le deuxième principe donnant l'entropie:
Nous voyons que si nous considérons un cristal à la température du zéro absolu, la position des particules, les unes par rapport aux autres est parfaitement définie de façon unique. Par conséquent, il n'y a qu'une seule complexion possible pour un cristal au zéro absolu. Le nombre de complexions est donc égal à 1. Ce qui entraine que:
C'est l'étude des chaleurs spécifiques des cristaux solides tendant vers une valeur nulle au voisinage du zéro absolu qui amena à ce résultat.
Rappelons que le "zéro absolu" est la température la plus basse accessible théoriquement en physique. A cette température, une substance ne contient plus à l'échelle macroscopique, l'énergie thermique (ou chaleur) nécessaire à l'occupation de plusieurs niveaux énergétiques microscopiques (cf. chapitre de Mécanique Statistique). Les particules qui la composent (atomes, molécules) sont tous dans le même état d'énergie minimale (état fondamental). Cela se traduit par une entropie nulle due à l'indiscernabilité de ces particules dans ce même niveau d'énergie fondamentale (selon le troisième principe de la thermodynamique) et par une totale immobilité au sens classique selon le théorème du Viriel (effectivement, au sens quantique, nous avons vu dans le chapitre de physique quantique ondulatoire que les particules possèdent toujours une quantité de mouvement non nulle d'après les relations d'incertitudes de Heisenberg).
CAPACITÉs CALORIFIQUEs
Dans une transformation donnée, un apport de chaleur se traduit en général par une élévation de la température du système.
Définition: Nous appelons "capacité calorifique" (ou "capacité calorique", ou encore "capacité thermique" ou enfin "chaleur spécifique"....) C du système, la quantité :
(6)
La capacité calorifique est donc de par ses unités la donnée de l'énergie qu'il faut apporter à un corps pour augmenter sa température de 1 degré Kelvin. Elle s'exprime en Joule [J]. C'est une grandeur extensive (plus la quantité de matière est importante plus la capacité thermique est grande).
Dans le cas d'un gaz parfait monoatomique, nous supposons que la totalité de la chaleur (énergie) est sous forme d'énergie cinétique des molécules (énergie thermique), donc nous pouvons alors écrire:
(7)
Remarque: Cette capacité n'est pas constante elle dépend bien évidemment elle-même de la température et du matérieux/fluide considéré car elle dépend du nombre de degrés de libertés qui change en fonction des atomes/molécules (a explique la différence de capacité calorifique entre les gaz monoatomiques et les autres).
En thermodynamique, il faut toujours préciser quelle est la transformation considérée car dépend de la nature de cette transformation. Nous distinguerons en particulier la capacité calorifique à volume constant :
(8)
et la capacité calorifique à pression constante (isobare) :
(9)
La différence entre la chaleur spécifique à pression constante et la chaleur spécifique à volume constant tient évidemment au travail qui doit être fourni pour dilater le corps en présence d'une pression externe.
Si au lieu de considérer le système entier, nous rapportons les mesure à une unité de masse (ce qui est beaucoup plus utile en pratique!), nous définissons alors la "capacité calorifique massique" à volume constant (isochore) :
(10)
et la capacité calorifique massique à pression constante (isobare) :
(11)
Si au lieu de considérer le système entier, nous rapportons les mesures à une mole du corps considéré (ce qui est beaucoup plus utile en chimie!), nous définissons le "capacité calorifique molaire" à volume constant (isochore) :
(12)
et la capacité calorifique molaire à pression constante (isobare) :
(13)
où n est le nombre de moles du système.
Nous avons donc bien évidemment par extension la relation très utile en pratique:
où c est la capacité calorifique polytropique.
Exemple:
Regardons une application pratique et sympathique qui consiste à calculer la puissance en fonction du débit et de la température d'un fluide en utilisant l'analyse dimensionnelle:
Nous avons donc dans un système sans échange de travail:
(14)
Or, la puissance est l'énergie divisée par le temps (cf. chapitre de Mécanique Classique). Il vient alors:
(15)
et si la capacité calorifique est donnée sous forme massique à pression constante:
(16)
Ce qui permet déjà de calculer la puissance à fournir pour chauffer une quantité de matière donnée à une température donnée et un temps donné sans considérer de changement d'état sinon quoi il faut prendre en compte la chaleur latente (pensez aux bouilloires à thé ou fours industriels par exemple ou cette relation est souvent utilisée!).
Or la fraction peut aussi s'exprimer comme le débit du fluide en multiplié par la densité du fluide:
(17)
Dans certaines transformations, nous avons un apport ou un retrait de chaleur alors que la température du système reste constante (par exemple dans les transformations de changement de phase d'un corps). Cela provient d'un autre phénomène:
Définition: "L'enthalpie de changement d'état" ou la "chaleur latente" notée L, correspond à la quantité de chaleur nécessaire à l'unité de quantité de matière ou de masse d'un corps pour qu'il change d'état. C'est une valeur très importante en pratique pour effectuer des calculs.
Nous avons donc bien évidemment par extension la relation très utile en pratique:
(18)
Remarque: Pour le passage de l'état liquide à l'état de vapeur nous parlerons "d'enthalpie de vaporisation".
L'enthalpie échangée lors du changement d'état résulte de la modification (rupture ou établissement) de liaisons interatomiques ou intermoléculaires. Il existe trois états physiques principaux pour tout corps pur: l'état solide, l'état liquide et l'état gazeux. Les liaisons sont plus fortes dans l'état solide que dans l'état liquide et ces liaisons sont quasi-absentes dans l'état gazeux. Il existe un quatrième état obtenu à très haute température où la matière se trouve sous la forme d'un plasma d'ions et d'électrons.
Nous différencions trois modes d'échange de chaleur :
1. La "convection" : fluide venant alternativement au contact d'un corps chaud et d'un corps froid (phénomène typique des mouvements de l'atmosphère terrestre).
2. Le "rayonnement" : un corps à température donnée émet un rayonnement électromagnétique susceptible d'être absorbé par un autre corps.
3. La "conduction" : le transfert d'énergie se produit des zones chaudes vers les zones froides par collision des particules les plus excités (zone chaude) avec les particules voisines moins excitées et ainsi de suite de proche en proche.
ÉNERGIE INTERNE
Dans le chapitre de Mécanique Classique, nous avons vu (deuxième théorème de König) que l'énergie totale d'un corps par rapport à un référentiel galiléen extérieur au centre de masse était donnée par la somme de l'énergie cinétique et potentielle par rapport à ce même référentiel, additionné de l'énergie cinétique et potentielle de ce même corps par rapport au référentiel assimilé à son centre de masse (référentiel barycentrique).
Il en va de même pour un système thermodynamique pour lequel nous avons :
(19)
Ce que nous écrivons aussi sous la forme :
(20)
où U est la grandeur énergétique propre au centre de masse du corps concerné. Sous une forme plus simplifiée, la relation précédent s'écrit en thermodynamique :
(21)
Le deuxième principe de la thermodynamique s'écrit alors :
(22)
où Q est la chaleur correspondant à l'énergie cinétique moyenne des particules composant le corps par rapport à son centre de masse et étant dont les composantes sont régies par les règles de la mécanique statistique.
En règle générale, les systèmes étudiés en thermodynamique sont globalement au repos () et donc . De même, nous avons en général (champ de potentiel constant et isotrope) .
En conséquence la loi de conservation de l'énergie ou premier principe de la thermodynamique s'écrira :
(23)
Remarque: L'énergie interne U n'est souvent donnée qu'à une constante additive près, c'est la raison pour laquelle certains l'appelle à juste titre "surénergie interne". Comme nous l'avons démontré en mécanique classique, l'énergie totale d'un système, est la somme des énergies élémentaire de celui-ci. Ainsi, l'énergie interne est une grandeur extensive.
Considérons maintenant un système décrit par les variables d'état thermodynamiques . Dans une transformation élémentaire le travail élémentaire dW (si nous nous intéressons qu'à cette forme d'énergie) se mettra sous la forme (cf. chapitre de Calcul Différentiel Et Intégral) :
(24)
si nous avons la relation suivante qui est satisfaite (qui sont les coefficient des dx):
(25)
Sinon, si cette relation n'est pas satisfaite tel que :
(26)
alors nous avons une différentielle totale inexacte (la différentielle dépend du chemin parcouru!) ce qui s'écrit alors:
(27)
Dans la même transformation, la quantité de chaleur dQ se met sous une forme similaire :
(28)
si encore une fois la relation suivante est vérifiée pour les variables d'état:
(29)
ou sinon dans le cas contraire :
(30)
Selon le premier principe de la thermodynamique, si l'énergie est conservative alors nous avons pour l'énergie intere d'un système fermé :
(31)
Ce qui implique que quelque soit la transformation, les variations de travail et de chaleur sont données par à l'intérieur du système satisfont:
(32)
Donc quelque soient les façons dont les transformations se font à l'intérieur du système, l'état final et initial sont identiques ce qui nous impose que les transformations thermodynamiques sont indépendantes de la manière dont les phénomènes ont lieu à l'intérieur de celui-ci. est alors une différentielle totale exacte que nous écrirons dU.
Or, rappelons que nous avons vu en mécanique classique par définition que le travail est donné par une force sur une distance (quelque soit l'origine de cette force : mécanique, rayonnante, nucléaire, etc.) :
(33)
Or, le chemin intervient dans cette expression classique du travail et donc le travail est une grandeur qui dépend du chemin parcouru et comme nous l'avons dans le chapitre de Calcul Différentiel et Intégral, ceci implique que nous devons écrire au lieu de dW. Il existe bien sûr quantité d'autres manières d'exprimer le travail mais par la définition de celui-ci même, il s'agira toujours d'une différentielle inexacte.
Ce résultat à une implication directe sur l'expression de la variation de chaleur pour laquelle le théorème du Viriel nous montre bien dans le cas d'un fluide, que celle-ci n'est donnée que par l'agitation thermique de celui-ci. Il convient de rappeler que celle-ci est donnée par l'énergie cinétique moyenne et que l'énergie cinétique existe de par l'application d'une force sur une distance pour chaque particule du fluide. Ainsi, la chaleur est elle aussi une différentielle inexacte !
Finalement, nous avons dans le cas d'un fluide (liquide ou gazeux) ayant une variation d'énergie interne polytropique:
(34)
Au cours de son évolution, le volume V du système peut donc varier. Si nous considérons une évolution infiniment petite au cours de laquelle le volume varie de dV et si nous notons la pression extérieure subie par le système, nous écrirons dans un cadre plus général (le signe négatif devant la pression est une convention!) :
(35)
où est le travail dit de "refoulement extérieur" (si , l'augmentation du volume exprime ainsi la fourniture d'un travail, ce qui explique le signe) et où dT (à ne pas confondre avec une variation de température!!) est une autre forme d'énergie (si le système est réactif au niveau chimique par exemple il peut fournir une éventuelle énergie chimique aussi).
Sauf systèmes particuliers (piles, accumulateurs,…) la seule énergie échangée (autre que l'énergie thermique ou de chaleur Q) est le travail de refoulement du milieu extérieur, de sorte que et dès lors nous avons :
et alors nous pouvpons à loisir écrire dW au lieu d'utiliser la différentielle inexacte puisque ce travail est dépendant que d'une variable d'état!
Par ailleurs la plupart des système chimiques étudiés sont à la même pression que la pression extérieur, soit , étant la pression dans le système. Dès lors, nous avons :
(36)
où dans ces deux systèmes, P est la pression du système.
La quantité de chaleur mise en jeu dans une transformation isochore (à volume constant) est bien évidemment égale dès lors à la variation de l'énergie interne tel que :
(37)
Si nous considérons un système évoluant d'un état 1 vers un état 2 de façon isobare (à pression constante) :
(38)
tel que :
(39)
Ainsi:
Ainsi, la quantité de chaleur mise en jeu dans une transformation isobare (l'indice est indiqué dans ce sens) est égale à la variation de la fonction enthalpie :
(40)
Nous pouvons alors (enfin!) définir une nouvelle fonction d'état commode, "l'enthalpie" H (grandeur extenvise) définie par :
(41)
où nous avons utilisé la loi d'état des gaz (cf. chapitre de Mécanique des fluides).
L'enthalpie est un concept énormément utilisée en thermodynamique chimique et nous l'utiliserons sans cesse lors de son étude (cf. section de Chimie).
Rappelons que le delta de l'enthalpie ci-dessus (et non celui découlant d'une intégration du différentiel de l'enthalpie que nous verrons plus loin) est une manière particulière de compter l'énergie d'un système : quand un système se trouve à l'air libre, sous la pression atmosphérique donc, il est assez délicat a priori de mesurer l'énergie qu'il faut lui fournir (ou qu'il libère) quand il subit une transformation. En effet, une transformation s'accompagne en général d'un changement de volume, et dans le cas où le système gonfle, il doit pousser l'atmosphère, ce qui consomme une partie de l'énergie (sous forme de travail). D'après sa définition, l'enthalpie permet de s'affranchir de ce problème pour des transformations à pression constante, en prenant en compte cette énergie perdue.
Voyons une application pratique des quelques éléments théoriques vus précédemment qui nous seront très utiles aussi bien en acoustique (cf. chapitre de Musique Mathématique) ou en Génie Aéronautique.
ÉQUATION DE LAPLACE
Nous avons démontré dans le chapitre de Mécanique des Fluides avec le théorème du Viriel que l'énergie interne (énergie cinétique) d'un gaz parfait monoatomique était donnée par:
(42)
Nous avons donc:
(43)
Si le processus est à volume constant, nous supposerons qu'il n'y aucun travail fourni (collisions inélastiques sur les parois) et alors (nous utilisons les différentielles exactes parce que nous supposons que la seule variable thermodynamique est la température!):
(44)
Donc:
(45)
d'où pour une mole:
(46)
de sorte que nous pouvons écrire pour un gaz monoatomique parfait à volume constant:
(47)
Si le processus à lieu à pression constante (énergie cinétique constante des atomes du gaz) alors nous avons (voir théorème du Viriel):
(48)
(les collisions qui repoussent la paroi du volume font perdre de l'énergie au système d'où le signe "-").
Ainsi:
(49)
Ainsi:
(50)
d'où pour une mole:
(51)
Des deux résultats précédents, nous obtenons :
(52)
avec la "relation de Mayer":
(53)
Si le gaz parfait est diatomique, il y a 5 degrés de liberté (3 pour la position du premier atome +3 pour la position du deuxième -1 pour la contrainte que la distance entre les deux est fixée) et nous avons alors:
(54)
En faisant les mêmes développements nous obtenons (valeur qui nous utiliserons dans le chapitre de la Musique Mathématique mais qui est utile dans de nombreux autres domaines):
(55)
Quand un système isolé de gaz parfait subit une transformation adiabatique à pression constante, la variation d'énergie interne du système sera soutirée par la variation de travail interne. Ce qui traditionnellement se note par un signe négatif tel que (en utilisant la résultat obtenu plus haut):
(56)
Soit:
(57)
Prenons maintenant l'équation des gaz parfaits (sans collisions) et différencions. Nous obtenons:
(58)
Soit en éliminant dT entre les deux dernières relations, nous obtenons:
(59)
Soit après simplification et réarrangement des termes:
(60)
ce qui rapporté aux quantités de moles s'écrit (selon l'habitude des chimistes):
(61)
bref… et en nous rappelant que:
(62)
Nous avons:
(63)
En utilisant la définition du "coefficient de Laplace", appelé aussi "coefficient adiabatique":
(64)
nous avons l'expression:
(65)
En remaniant:
(66)
Nous obtenons par intégration:
(67)
soit:
(68)
qui est équivalent en utilisant les propriétés des logarithmes:
(69)
Maintenant si nous dérivons par rapport à la variation de volume:
(70)
Si nous divisons par la masse:
(71)
il s'agit de "l'équation de Laplace" qui donne la relation entre pression et volume dans une transformation adiabatique d'un gaz (ce qui ne signifie pas que la température est constante rappelons-le mais seulement que l'échange de chaleur avec le système extérieur est nul ou négligeable!).
Ainsi nous avons aussi l'information qui peut être utile dans l'industrie:
(72)
COEFFICIENTS THERMOELASTIQUES
Si nous différencions V(P,T) nous avons (cf. chapitre de Calcul Différentiel et Intégral):
(73)
ou autrement écrit:
(74)
Nous avons introduit de manière naturelle dans le chapitre d'Acoustique un coefficient nommé "coefficient de compressibilité isotherme" :
que nous pouvons réintroduire ici:
De même il serait intéressant d'avoir un autre coefficient pour le premier terme qu'il suffirait de définir par anologie:
appelé "coefficient de compressibilité isobare".
Ainsi, nous avons:
Soit nous avons le travail mécanique (la différentielle totale est inexacte car nous avons plus d'une variable d'état) en multipliant par la pression pour avoir les bonnes unités:
Pour une transformation isotherme le premier terme est nul, et pour une transformation isobare, c'est le second qui est nul.
La données des coefficients thermoélastiques (mesurés expérimentalement) doivent permettre de remonter à l'équation d'état par intégration de V(P,T), ce qui est licite, puisque V est une fonction d'état. Dans le cas du gaz parfait par exemple, nous pouvons écrire par intuition des dimensions des constantes:
Nous avons donc:
et donc en multipliant par la pression:
Ce qui conduit à:
Soit:
Ce qui donne immédiatement après intégration:
Soit:
Ceci dit, nous avons différencié V pour obtenir deux coefficients à tels que:
Nous pourrions faire de même pour la pression et la température et nous avons alors au total trois relations:
mais parmi les 6 facteurs que nous voyons dans ces trois relations, quatre sont déjà définis (certains sont l'inverse des coefficients définis plus haut). Il manque par contre la définition de un seul coefficient pour les deux facteurs manquants. Nous choisissons celui qui dans la pratique est le plus souvent utilisé en analogie avec les autres coefficients:
appelé "coefficient d'augmentation de pression isochore".
Nous avons ainsi les trois coefficients très utilisés dans la pratique:
respectivement et dans l'ordre:
1. Coefficient de compressibilité isotherme.
2. Coefficient de compressibilité (ou de dilatation) isobare
3. Coefficient d'augmentation de pression isochore
Nous retrouverons ces coefficients lors de notre étude des mouvements de convections en météorologie.
CHALEUR
Avant de continuer, il va à tout prix nous falloir éliminer une deux des plus grandes difficultés dans la bonne compréhension de la thermodynamique (mis à part celle de la différenciation entre les différentielles totales exactes et inexactes qui a déjà été réglée dans le chapitre de Calcul Différentiel et Intégral) :
- La différence entre la chaleur et le température
- La différence entre l'énergie-travail et l'énergie-chaleur
Comme nous l'avons vu dans le chapitre de Mécanique des Milieux Continus, la température caractérise un état d'équilibre thermodynamique et traduit l'existence d'une agitation thermique (théorème du Viriel) et elle peut varier lorsque l'extérieur fournit un travail . Cependant, l'expérience nous montre que c'est en "chauffant" un système que nous augmentons le plus aisément sa température. Mais qu'est-ce donc la chaleur? :
Considérons un système thermodynamique à l'équilibre, et écrivons son énergie E sous la forme statistique (espérance de la variable aléatoire de l'énergie d'un micro-état i de probabilité - voir chapitre de Mécanique Statistique) :
(75)
l'énergie étant identifiée avec sa valeur moyenne puisque les fluctuations sont négligeables. Sa variation au cours d'une transformation infinitésimale (que nous supposons à nombre de particules constant) est (différentielle totale) :
(76)
où est le déplacement de l'énergie du micro-état provoqué par la transformation, et la variation de la population de cet état i.
Si au cours de cette transformation infinitésimale, le système reçoit le travail et la chaleur , son énergie s'accroît de :
(77)
Nous pouvons maintenant comparer cette dernière relation (exprimant le premier principe de la thermodynamique) avec celle qui la précède (découlant de la mécanique statistique).
Examinons d'abord le cas d'une transformation dans laquelle le système reçoit seulement de la chaleur :
(78)
Dans ce cas, aucun des paramètres extérieurs au système ne varie en général dans la transformation de sorte que . Nous en déduisons :
(79)
Ainsi, lorsqu'un système reçoit seulement de la chaleur, son énergie varie par modification des populations de ses états microscopiques : si la quantité de chaleur reçue est positive, la probabilité des états d'énergie élevée augmente, au détriment de celle des états de plus basse énergie. Enfin, si nous tenons compte que le système doit être à l'équilibre (l'état le plus probable comme nous l'avons démontré en mécanique statistique) dans les états initial et final de la transformation, nous constatons, comme nous pouvions nous y attendre, que la température du système varie : elle a augmenté si la quantité de chaleur reçu est positive (cela se démontre en choisissant une distribution canonique pour décrire les états d'équilibre macroscopique du système).
Cela explique la confusion fréquente entre ces deux concepts très différents que sont température et chaleur. Cette confusion est accentuée par le décalage entre le langage quotidien et la terminologie scientifique. Dans le langage quotidien, lorsque nous parlons de chaleur d'un corps, nous affirmons en réalité que sa température est élevée. La confusion regrettable parce que la notion de chaleur est bien présente en physique, mais que sa signification est autre.
Ainsi, chauffer un système, c'est lui fournir de la chaleur, c'est augmenter son énergie interne (le nombre de micro-états de haute énergie) par des moyens qui ne sont pas purement mécaniques. La chaleur est donc une forme d'énergie particulière!
ENTROPIE
Un système macroscopique isolé tend vers l'équilibre. Il l'atteinte en un temps fini (qui peut être extrêmement grand). L'état d'équilibre est unique: les exceptions à cette affirmation sont trop spéciales pour mériter une digression.
L'existence même d'un état d'équilibre est fondamentale pour la thermodynamique. Cependant, le processus de marche à l'équilibre ne résulte pas d'un dogme: il ne doit pas en exister en physique! Comme toute autre loi, il est soumis à vérification et doit être analysé. Une question, notamment se pose: quelle est la contrepartie microscopique de la marche à l'équilibre, processus macroscopique.
Nous avons vu dans le chapitre de Mécanique Statistique que par définition: l'état d'équilibre qui est l'état qui correspond au plus grand nombre de configurations (micro-états) et est l'état le plus probable.
Ce qui nous avait amené à la relation suivante:
(80)
où S représente l'espérance statistique de l'information sur les micro-états et que nous avions appelé "entropie". Il est évident que S a les unités de qui comme nous l'avions montré est une constante.
La question qui se pose alors en thermodynamique est: quelle est la constante qui permet de caractériser pour un gaz, fluide ou solide l'espérance mathématique du nombre des états.
Il vient alors en regardant toutes les relations qu'il existe en thermodynamique qu'une seule constante apparaît systématique dès qu'il s'agit de caractériser un état thermodynamique. Il s'agit de la constante de Boltzmann. Donc:
(81)
Donc S a les unités de correspondant au rapport J/T qui permet donc de mesure le degré de désordre d'un système au niveau microscopique. Intuitivement: plus l'entropie du système est élevée, moins ses éléments sont ordonnés et capables de produire des effets mécaniques, et plus grande est la part de l'énergie inutilisée ou utilisée de façon incohérente.
L'entropie est une grandeur extensive. Effectivement, nous avions montré que le choix du logarithme dans la loi de Boltzmann venait que l'entropie d'un macro-état était l'espérance sur de l'ensemble des micro-états:
(82)
ce qui nous avait amené à:
(83)
et montre bien que l'entropie est une grandeur extensive car sommable sur les micro-états (complexions).
Ce qui reste difficile maintenant c'est de savoir si l'énergie dans les unités de l'entropie provient du travail W, de la chaleur Q ou des deux? Au fait la réponse est simple car dans notre développement de la loi de Boltzmann, à aucun moment le système (idéal) étudié n'a fourni un travail. Donc la seule énergie mise en cause est celle de la chaleur.
Ainsi:
(84)
Or, l'entropie ne peut pas être donnée par:
(85)
car c'est la définition de la chaleur spécifique. Par ailleurs, si le lecteur se rappelle de nos développements en Mécanique Statistique, l'étude se faisait dans un système isolé avec deux cavités. Donc si le passage d'une cavité à l'autre se fait très lentement (de façon à ce qu'il n'y ait pas une détente du gaz) la température restera constante (détente isotherme). Ce qui implique donc la définition:
(86)
Pour passer à la forme différentielle il convient de se rappeler que la chaleur Q est une différentielle inexacte. Donc pour une transformation réversible:
(87)
Donc l'entropie est une différentielle totale exacte (la chaleur dépend de la manière dont se fait la transformation mais S ne dépend que de l'état final et initial de la chaleur Q) et comme:
(88)
Nous avons finalement:
(89)
Si le système est dans une transformation adiabatique (sans échange de chaleur et de travail avec l'extérieur) l'entropie est nulle. Sinon, le système prend de l'entropie à l'Univers dans une évolution naturelle.
Ce qui signifie que l'entropie (espérance de l'information intrinsèque) dans un système en contact avec l'extérieur ne peut qu'augmenter ou rester constante.
Ce qui est important c'est que tout processus (non adiabatique) convertissant de l'énergie d'une forme à une autre dans un système isolé en perd obligatoirement une partie sous forme de chaleur.
En ce qui concerne l'Univers… toute la question est de savoir si il s'agit d'un système thermodynamique isolé ou non…
Nous avons aussi la relation très utile en mécanique des fluides:
(90)
RELATIONS DE MAXWELL
Revenons dans un premier temps ce que nous avons déjà rappelé un peu plus haut mais en nous restreignant à deux variables. C'est-à-dire à la différentielle totale exacte:
(91)
Nous avons donc aussi:
(92)
En insérant dx dans dy:
(93)
ou encore:
(94)
comme les termes entre parenthèses sont des fonctions et que dx et dz sont par contre arbitraires, la seule solution à cette relation est:
(95)
Multipliant la deuxième relation par :
(96)
Nous avons alors:
(97)
Venons en maintenant aux faits. Rappelons la relation:
(98)
relation très utile dans les fluides où la pression est constante et la variation de chaleur se fait par celle de l'entropie. Ainsi que la relation définissant l'enthalpie:
(99)
dont nous allons modifier la différentielle:
(100)
et y injectant (premier principe):
(101)
nous avons:
(102)
et en y injectant l'entropie (deuxième principe) nous obtenons:
(103)
Nous allons donc utiliser les deux relations suivantes qui vont nous être utiles:
(104)
Nous introduisons maintenant une nouvelle quantité que nous appelons "énergie libre" (celle qui est réellement disponible dans le système) et qui sera donnée par:
(105)
et donne simplement la différence entre l'énergie interne et l'énergie calorique dissipée à cause de l'entropie à une température donnée.
Nous introduisons également une autre nouvelle quantité que nous appelons "enthalpie libre" (celle qui est réellement disponible dans le système) et qui sera donnée identiquement par:
(106)
qui est simplement la différence entre l'enthalpie et l'énergie calorifique dissipée à cause de l'entropie à une température donnée.
Nous avons donc pour l'énergie libre la forme différentielle:
(107)
en y injectant le premier principe et deuxième principe:
(108)
et de même pour l'enthalpie libre:
(109)
en y injectant:
(110)
Nous avons donc quatre relations:
(111)
appelées "équations de Gibbs".
Nous remarquons que toutes ces équations sont toutes de la forme:
(112)
Or, rappelons que selon le théorème de Schwarz (cf. chapitre de Calcul Différentiel et Intégral) que si dz est bien une différentielle totale exacte nous avons alors:
(113)
Ce qui nous donne les quatre relations:
(114)
Par ailleurs, par la définition même des dérivées partielles et des quatre relations:
(115)
nous avons:
(116)
Toutes ces relations sont mises à profit pour calculer les variables thermodynamiques non directement mesurables à partie des données expérimentales.
Maintenant voyons une relation qui nous sera utile en météorologie!:
Nous savons que la chaleur spécifique est donnée par définition à pression constante par:
(117)
Or à pression constante, la variation de chaleur peut s'écrire par définition avec la variation d'enthalpie:
(118)
Maintenant rappelons que l'enthalpie s'écrit:
(119)
comme dS est une différentielle exacte, nous pouvons l'écrire en fonction des paramètres de température et de pression seuls:
(120)
Nous avons donc:
(121)
Comme par ailleurs dH est une différentielle exacte, nous pouvons aussi l'écrire en fonction des paramètres de température et de pression seuls:
(122)
Nous avons alors les deux relations à identifier:
(123)
Il vient alors:
(124)
Équation de continuité
Considérons de manière générale un système ouvert, limité par une frontière quelconque (déformable ou non) et animé d'un mouvement quelconque (en déplacement ou immobile) par rapport à un référentiel considéré comme fixe.
Ce système, qui est représenté sur la figure ci-dessous est susceptible de transférer de l'énergie (ou de la masse) entre lui-même et l'extérieur. Ce système peut être inertiel ou non.
Soit une grandeur extensive A (comme la masse ou la charge). La grandeur quantitative correspondante est a (elle peut exprimer par exemple l'isotropie ou l'anisotropie du système).
(125)
D'une façon générale, la valeur de A à l'intérieur du système est, à un instant quelconque:
(126)
étant la densité de la grandeur quantitative A.
Le taux de variation spatial de A est donné par la dérivée dA/dt. Les causes de variations de A peuvent être liées à deux phénomènes différents: les flux et les sources ou puits.
En comptant positivement ce qui entre dans le système, le flux de A à travers la frontière est donnée par l'intégrale de surface:
(127)
dans laquelle nous définissons:
- comme le vecteur flux surfacique (ou le vecteur densité de courant) total relatif à A
- comme l'élément de frontière, exprimé par un vecteur normal à la surface et dirigé vers l'extérieur
Remarquons que, contrairement à l'acceptation usuelle en physique, le concept de flux contient déjà la dérivation par rapport au temps. Par ailleurs, afin d'alléger le texte, l'expression vecteur flux surfacique est réduite au terme flux dans tout ce qui suit.
Ce flux peut être décomposé en plusieurs flux, selon la relation:
(128)
Le terme est un flux par déplacement absolu, caractérisant un flux lié à un écoulement fluide. Nous avons la relation:
(129)
où est la vitesse absolue d'une particule fluide par rapport au référentiel fixe.
Le terme est un flux par déplacement apparent, mis en jeu seulement lorsque la frontière se déplace (par exemple si le volume V est en révolution). Nous avons la relation:
(130)
où est la vitesse absolue de déplacement (dans le sens déformation!) d'un point de la frontière , par rapport au référentiel fixe.
Le terme est le flux total par conduction, caractérisant un flux lié à un phénomène de transfert de proche en proche, sans déplacement fluide (pex: conduction thermique, conduction électrique, travail mécanique).
Le terme est un flux par déplacement relatif, résultant à la fois du déplacement du fluide et de celui de la frontière . Nous avons la relation:
(131)
où est la vitesse relative d'une particule fluide par rapport à un point bien défini de la frontière . En vertu du principe de composition des vitesses (vitesse absolue est la somme la vitesse relative et de sa vitesse apparente), nous avons:
(132)
Lorsque la frontière est traversée par un fluide, le débit-masse élémentaire (c'est la masse qui nous intéresse le plus souvent en physique donc sera une densité massique) est:
(133)
Le flux de A correspondant est alors donné par:
(134)
où désigne la portion de frontière traversée par le débit masse (ou fluide).
Si nous comptons positivement l'effet d'une source, le taux d'augmentation de A est donné par:
(135)
où est le flux volumique d'une source de A.
En tenant compte à la fois des flux et des sources, nous avons le taux de variation spatial de A:
(136)
Le bilan spatial de A est finalement exprimé par la relation:
(137)
Dans le cas particulier d'un système en régime permanent (par exemple dans le cas d'un fluide qui s'écoule ou d'un solide qui est le siège de conduction thermique, de conduction électrique, de réaction nucléaire,…), toutes les grandeurs locales sont constantes en tout point du système. Si, de plus, nous choisissons une frontière indéformable, il est possible de raisonner par rapport à un référentiel lié au système. Nous avons alors, en tout point fixe du système par rapport à ce référentiel:
; ; (138)
Il en résulte pour l'ensemble du système:
(139)
Donc dans le cas particulier d'un système en régime permanent, avec une frontière indéformable , liée au système, le taux de variation spatial de toute grandeur extensive scalaire est nul.
Le taux de variation uniquement spatial de A est:
(140)
La variation élémentaire du volume V est due au déplacement (au sens de la déformation!) de la frontière , de sorte que
(141)
Dès lors nous pouvons écrire que:
(142)
nous avons donc:
(143)
En prenant en compte les flux des sources et des puits nous avons:
(144)
Le théorème de Gauss-Ostrodradsky (cf. chapitre de Calcul Vectoriel) va nous permettre d'écrire l'intégrale de surface en une intégrale de volume, et en groupant tous les termes sous le même signe intégrale, nous obtenons:
(145)
Comme les limites d'intégration (frontière ) sont arbitraires, l'expression entre crochets est identiquement nulle.
(146)
Considérons maintenant que la grandeur extensive scalaire soit la masse M, nous avons alors:
(147)
avec .
Comme la masse n'est pas susceptible d'être transférée par un phénomène de conduction (dans un cas classique (non quantique)), nous avons qui est nul. Comme la masse est conservative, il n'y a ni source, ni puits de masse de sorte que est également nul.
Nous avons dès lors:
(148)
Le relation:
(149)
est appelée "équation de continuité" ou encore "équation de conservation (de la masse)".
Le signe "-" est ici car nous avons défini le flux entrant comme étant positif. Il est possible que dans la littérature ainsi que sur ce sit vous trouviez un "+" à la place de ce signe.
Il y a une autre forme beaucoup plus fréquente sous laquelle nous trouvons l'équation de continuité. Le lecteur aura remarqué que le terme a les unités d'une densité de surface de courant massique ce qui nous amène en analogie avec l'électronique (cf. chapitre d'Electrocinétique) à noter :
(150)
Ce qui ramène l'équation de continuité à :
(151)
ÉQUATION DE LA CHALEUR
Appliquons maintenant ce résultat à la diffusion de la chaleur.
Comme pour l'équation de conservation de la masse nous pouvons écrire pour la chaleur dans le cas d'absence de sources:
(152)
où q est la quantité de chaleur par unité de volume (ne pas l'oublier sinon nous aurions pris un Q majuscule!) et le flux de chaleur dont la quantité entrante a été définie comme négative.
Une variation de température entraînant une variation de la quantité de chaleur est défini en première approximation par la loi physique suivante (cela découle de la définition de la chaleur spécifique massique aussi...):
(153)
où est la densité de matière et est la capacité calorifique massique. Ou de manière équivalent e (puisqu'en thermodynamique, comme nous l'avons déjà précisé les minuscules sont rapportées à la masse):
Le flux de chaleur étant trivialement induit par une différence spatiale de température nous obtenons alors la "loi de Fourier" qui exprime le flux de chaleur proportionnellement au gradient spatial de température:
(154)
Le signe "-" étant simplement dû au fait que le flux de chaleur va du plus chaud au plus froid et est le "coefficient de transport de la chaleur" exprimant la "conductivité thermique" du matériau dépendant des propriétés atomiques de la matière (cf. chapitre de Mécanique Statistique).
En insérant les deux précédentes relations dans l'équation de conservation de la chaleur nous avons :
(155)
De façon plus esthétique et générale nous la retrouvons sous la forme condensée de "l'équation de diffusion de la chaleur" ou appelé plus sobrement "équation de la chaleur" :
(156)
où le coefficient de proportionnalité est appelé dans cadre de cadre de la chaleur: "coefficient de diffusion thermique":
(157)
Il est possible de démontrer son origine microscopique comme nous l'avons fait dans le chapitre de Mécanique Statistique.
Il faut cependant toujours faire attention aux unités de suivant que nous travaillons avec la capacité calorifique massique ou la capacité calorifique C au dénominateur!
Donc sous forme totalement explicite nous avons en une dimension :
(158)
Remarque:
R1. Nous retrouverons cette équation dans le chapitre de méthodes numériques pour introduire le lecteur au concept de résolution d'équations différentielles par la méthode des éléments finis.
R2. C'est en étudiant cette équation que Fourier a introduit les séries et la transformée qui portent son nom, et qui sont devenues si importantes dans l'étude des phénomènes de propagation/diffusion.
Insistons sur le fait que toutes les relations du type:
(159)
sont appelées "équations de diffusion" du paramètre physique D. Nous allons tout de suite voir comment la résoudre en prenant comme exemple l'équation de diffusion de la chaleur et cela nous permettra aussi de comprendre pour Fourier a introduit la fameuse transformée qui porte son nom. Mais rappelons au lecteur que nous la retrouvons dans de multiples contextes (cf. chapitre de Mécanique Statistique).
Remarque: Cette équation (du moins sa forme et donc l'étude de sa résolution!) se retrouve dans des domaines inattendus comme dans la diffraction en physique ondulatoire, dans l'équation de Schrödinger en physique quantique, en finance dans l'équation de Black & Scholes, en électrocinétique dans le domaine des résistances, dans l'étude de la propagation des champs électromagnétiques dans la matière, dans l'étude des réactions en chimie, en neutronique nucléaire, etc.
Résolvons donc la forme générale de l'équation de diffusion:
(160)
Pour résoudre cette équation différentielle, nous allons procéder avec la méthode de séparation des variables en supposant que:
(161)
ce qui donne:
(162)
d'où l'équation de diffusion:
(163)
ce qui remanié et condensé s'écrit aussi:
(164)
Ce qui peut s'écrire:
(165)
donc pour que légalité soit vraie pour tout t et x les fonctions G et F doivent être constantes. Donc nous avons le droite d'écrire:
(166)
Le fait d'écrire la constante négative et à la puissance deux est une simple anticipation du résultat historiquement déjà connu…
Ce qui nous donne les deux équations simples:
(167)
Nous résolvons la deuxième équation différentielle:
(168)
Donc :
(169)
Pour la première équation différentielle:
(170)
Nous avons le polynôme caractéristique:
(171)
Soit les racines:
(172)
Donc (cf. chapitre de Calcul Différentiel Et Intégral):
(173)
Soit:
(174)
Alors là… nous sommes ennuyés parce que même si nous pouvons avec des conditions initiales déterminer l'ensemble des constantes… la solution est dans l'ensemble des complexes.
(175)
Mais après une longue réflexion nous pouvons contourner la difficulté. Effectivement le physicien habitué à travailler dans le domaine de l'analyse harmonique verra dans la relation précédente quelque chose de similaire aux transformées de Fourier. Effectivement! Puisque pour chaque valeur de possible nous obtenons une solution, il apparaît donc qu'en faisant la somme de toutes ces solutions, nous obtenons toutes les solutions (séparables) de l'équation de la chaleur. Nous avons donc:
(176)
Mais comme est un paramètre réel, il nous faut intégrer plutôt que de sommer:
(177)
Or si nous écrivons cela sous la forme suivante:
(178)
Nous y reconnaissons pour un temps t et à une constant près donnée la forme d'une transformée de Fourier inverse!
Et alors direz-vous? Eh bien comme nous l'avons vu lors de notre étude des transformées de Fourier, la transformée de Fourier inverse est une somme infinie de fonctions trigonométriques réelles!
Ensuite dans la pratique pour résoudre cette équation sous sa forme, nous allons imposer un spectre de la température pour un temps donnée et faire la transformée de Fourier (c'est très théorique…).
Mais résolvons dans un cas simpliste mais réel: Lorsque deux extrémités d'un système de taille L sont maintenues à deux températures différentes et , la solution de l'équation de la chaleur est stationnaires (indépendante du temps). Nous avons alors:
(179)
La solution à cette équation différentielle est très simple (c'est du calcul intégral de base avec conditions initiales connues):
(180)
C'est une situation que nous retrouvons dans la vie de tous les jours…
RAYONNEMENT THERMIQUE
L'étude du corps noir est à la base de la célèbre théorie de la physique quantique ondulatoire, un des piliers de la physique moderne. En effet, certains résultats expérimentaux ne pouvaient pas être expliquées sans l'introduction d'une nouvelle constante universelle : la fameuse constante de Planck.
Définition: Un "corps noir" (ou ou "récepteur intégral") est défini comme un corps ayant un "coefficient d'absorption énergétique" et un "coefficient d'émissivité" égaux à l'unité (cf. chapitre d'Optique Géométrique)
Le premier principe de la thermodynamique établit une équivalence entre le travail et chaleur comme modes de transfert d'énergie entre un système et son environnement (et en fait le bilan au niveau de l'énergie interne). Nous nous intéressons ici à la chaleur, que nous pouvons définir comme "l'énergie qu'un corps communique à un autre à cause de leur différence de température".
La chaleur se communique d'un endroit à un autre de trois manières différentes comme nous en avons déjà fait mention plus haut :
1. Par conduction: c'est un transfert de chaleur dans ensemble de points matériels en contacts qui se fait sans mouvements macroscopiques, sous l'influence d'un gradient de température. La conduction est donc le résultat de collisions moléculaires. Nous l'observons principalement dans les solides: dans les métaux, elle fait intervenir les électrons libres qui les rendent bons conducteurs de chaleur. En revanche, dans les isolants, la conduction se fait mal. De là la forte correspondance entre les propriétés thermiques et électriques des solides.
2. Par convection: la convection implique le transport de la chaleur par une partie d'un fluide qui se mélange avec une autre particule. Elle prend sa source dans un transport macroscopique de matière et ne concerne donc pas les solides.
3. Par rayonnement: la conduction et la convection supposent la présence de matière. Le rayonnement, lui, permet un transfert d'énergie qui peut s'effectuer à travers le vide. Il s'agit ici de rayonnement électromagnétique. Soulignons que le rayonnement n'est pas un mode de transfert de chaleur mais d'énergie, celle-ci pouvant se transformer en chaleur au contact d'un corps.
Le rayonnement thermique émis par un corps porté à une certaine température résulte d'une conversion de l'énergie interne du corps en rayonnement. Inversement, l'absorption est la transformation de l'énergie incident en énergie interne.
Lorsqu'un surface est soumise à un rayonnement absorbée, nous effectuons le bilan d'énergie selon la loi de Kirchhoff vue en photométrie :
(181)
où rappelons-le quand même, est la fraction du rayonnement absorbée, est la partie réfléchie (diffusée) et la partie transmise (qui traverse la surface). Ce bilan résulte du principe de la conservation de l'énergie.
Nous allons maintenant nous pencher sur les mécanismes d'absorption et d'émission et établir un lien entre chaleur et énergie rayonnante avant de nous intéresser directement au corps noir :
LOI DE STEFAN-BOLTZMANN
Nous avions défini lors de notre étude de la photométrie (cf. chapitre d'Optique Géométrique) le concept d'émittance (énergie irradiée par un corps non ponctuel par unité de surface) pour l'ensemble du spectre.
Ce que nous avions omis de préciser cependant, c'est que pour qu'un corps rayonne (outre le fait qu'il puisse être lui-même éclairé par un autre corps) il faut qu'il soit chauffé (que l'on fournisse un énergie d'excitation aux constituants au corps en question – sous-entendu aux électrons).
Donc nous devrions pouvoir établir une relation entre la température d'un corps et son émittance.
En 1879, le physicien autrichien Stefan a pu établir expérimentalement que l'émittance totale du corps noir à une température T augmentait proportionnellement à la quatrième puissance de la température tel que :
(182)
où M(T) est l'intégration sur toutes les longueurs d'onde (ou les fréquences... peu importe) de :
(183)
avec donné par la loi de Planck que nous déterminerons plus tard.
Rappelons également que (ceci sera démontré lors de notre démonstration de la loi de Planck) :
(184)
est la "constante de Stefan".
Remarque: En d'autres termes, la loi de Stefan établit que la puissance totale rayonnée par unité de surface dans le demi-espace libre du corps noir ("exitance énergétique" du corps noir).
En 1884, Boltzmann à démontré indirectement la loi de Stefan en se basant sur l'étude du corps noir à l'équilibre thermique (où nous considérons que les bords de la paroi du corps noir définissent les terminaisons des ondes électromagnétiques)à partir de la théorie de l'électromagnétisme et d'un raisonnement thermodynamique.
Dans un premier temps, Boltzmann a déterminé qu'elle était la pression de radiation du rayonnement dans une telle enceinte (ou dans un tel corps).
Voici les développements qui l'ont mené à déterminer la pression de radiation P(T) à la température d'équilibre thermodynamique T pour la densité interne d'énergie correspondante :
Rappelons l'expression de la "relation d'Einstein" que nous avons démontrée lors de notre étude de la relativité restreinte :
(185)
Considérons maintenant une enceinte de volume V dont les parois sont réfléchissantes pour les photons (cas du corps noir). Nous étudions la variation de la quantité de mouvement avant et après la collision sur une surface infiniment petite ds (ce qui permet de considérer les trajectoires avant et après le choc comme rectilignes et symétriques par rapport à l'axe orienté OX perpendiculaire à la surface du corps noir et coïncidant avec la surface ds).
Ainsi, nous avons avant collision pour la quantité de mouvement :
(186)
et après collision :
(187)
Si la collisions est élastique (ce qui est confortant relativement au photon…) :
et (188)
Nous avons alors :
(189)
La variation de la quantité de mouvement est alors :
(190)
Comme :
(191)
nous avons alors :
(192)
En ne considérant que la norme de l'expression et qu'il s'agit d'un photon :
(193)
Remarque: Nous supposons qu'après son rebond, le photon conserve sa fréquence (ce qui nous amène à supposer que le corps noir comporte des ondes stationnaires à l'équilibre thermodynamique).
Jusqu'à présent, nous avons raisonné sur un photon mais l'enceinte contient un gaz de photons. L'énergie interne volumique du rayonnement contient une densité volumique u de photons de fréquence identique v égale à :
(194)
Remarque: Nous précisons les unités car nous avons remarqué que la suite posait parfois quelques problèmes de compréhension.
Nous considérons que pendant un intervalle de temps dt, le nombre de photons pouvant potentiellement frapper la surface ds sous un angle d'indice est contenu dans un cylindre de génératrice cdt dont l'axe est incliné nécessairement d'un angle et ayant comme surface de base ds. Le volume de ce cylindre est par la projection de la surface de base :
(195)
Le nombre de photons pouvant potentiellement heurter la paroi ds par unité de temps est :
(196)
Dans cette dernière expression, nous avons supposé que tous les photons de dV avaient une quantité de mouvement dans la direction sous tendue par . En réalité, les photons arrivant réellement sur ds sont contenus dans un angle solide entre deux cônes de demi-angle au sommet et (pour des raisons de géométrie de l'expérience du corps noir qui était, sauf erreur, sphérique et par ailleurs cette symétrique sphérique facilite les calculs…).
La relation entre et est comme nous l'avons vu en trigonométrie (cf. chapitre de Trigonométrie) :
(197)
Sachant que dans le volume entier (rappel), l'angle solide vaut :
(198)
Le nombre dn compris dans l'angle solide élémentaire qui parvient sur la surface ds sous un angle d'incidence compris entre et est alors :
(199)
Soit maintenant la définition de la pression P :
(200)
en substituant ce qu'il convient :
(201)
Ce qui donne après simplification :
(202)
La pression totale de radiation dans ce cas particulier étant donnée par :
(203)
Ce qui est équivalent à écrire (à l'équilibre thermodynamique pour une température donnée) :
(204)
L'énergie totale est la densité d'énergie multipliée par le volume considéré :
(205)
Supposons que ce volume puisse varier. Le travail de la pression de radiation lors d'une dilatation dV du volume est :
(206)
La variation d'énergie interne du système en vertu du premier principe de la thermodynamique est :
(207)
Or d'après , nous avons :
(208)
d'où :
(209)
et selon le deuxième principe de la thermodynamique (ne pas confondre la notation avec la surface...) :
(210)
Nous avons :
(211)
Comme dS est une différentielle totale, nous avons dans ce cas:
(212)
Ce qui nous amène à écrire :
(213)
En calculant la dérivée du membre de droite :
(214)
En simplifiant :
(215)
ce qui s'écrit encore :
(216)
Soit :
(217)
qui devient l'équation :
(218)
Ce qui donne après intégration :
(219)
Finalement :
(220)
avec :
(221)
étant la constante de Stefan-Boltzmann dont la valeur avait été donnée à l'époque dans un premier temps expérimentalement.
Nous voyons ci-dessus la correspondance qu'il y a entre la relation que nous avons posé au début et celle que nous venons d'obtenir :
et (222)
Comme nous n'avons pas encore, à ce point, démontré la loi de Planck, nous pouvons faire un raisonnement osé mais que nous justifierons par la suite avec démonstration à l'appui.
Remarque: Les deux dernières relations nous donnent une information fondamentale comme quoi tous les corps qui ne sont pas à zéro kelvin (au zéro absolu) rayonnent!
M(T) et sont différenciées au niveau des unités par les dimensions d'une vitesse. Or, intuitivement et grossièrement (…), la vitesse qui peut tout de suite nous apparaître comme triviale dans ce cas d'étude est la vitesse de la lumière c. Ainsi, nous remarquons que :
(223)
Ce qui nous donne :
(224)
Curieux n'est-ce pas… mais nous le démontrerons plus loin car notre philosophie sur ce site est de ne jamais (ou le moins possible) laisser place à l'intuition.
Remarque: Lorsque nous étudierons la loi de planck, sera noté R(T) afin de ne pas confondre la radiance avec une densité d'énergie (car la notation peu malheureusement porter à confusion)
Considérons maintenant une chambre ou cavité isolée (comme une fournaise) en équilibre thermique à une certaine température T. Cette cavité sera sûrement remplie de rayonnement électromagnétique de différentes longueurs d'onde. Supposons qu'il existe une fonction de distribution M(T) dépendant uniquement de la température.
Logiquement, la quantité totale d'énergie électromagnétique, à toutes les longueurs d'onde, absorbée par les murs de la cavité doit être égale à celle émise par les murs autrement le corps formant la cavité verrait sa température changer. Kirchhoff raisonna que si le corps formant la cavité est fait de différents matériaux (se comportant donc de façon différente avec la température), l'équilibre entre radiation émise et radiation absorbée doit s'appliquer alors pour chaque longueur d'onde (ou domaine de longueur d'onde).
Nous voyons ainsi que M(T) est une fonction universelle, la même pour toutes les cavités sans égard à leur composition, leur géométrie ou la couleur de leur paroi. Kirchhoff ne donna pas cette fonction mais il fit remarquer qu'un corps parfaitement absorbant, c'est-à-dire un corps pour lequel apparaîtra (façon de dire…) noir.
Il vient alors que le rayonnement emmagasiné en équilibre dans une cavité isolée en équilibre thermodynamique (comme le sont les étoiles) est à tous égards la même que celle émise par un corps parfaitement noir à la même température.
Evidemment, si la cavité est fermée, nous ne pouvons pas mesurer le courant d'énergie qui s'en échappe. Mais pratiquons un tout petit trou dans cette cavité (suffisamment petit pour ne pas perturber l'équilibre du rayonnement électromagnétique à l'intérieur), alors l'énergie électromagnétique s'échappant de ce petit trou est la même que celle émise par un corps parfaitement noir.
Cependant, aucun objet n'est réellement un corps noir. Le noir de charbon a un coefficient d'absorption très près de 1 mais seulement pour certaines fréquences (incluant, bien sûr, le visible). Son coefficient d'absorption est beaucoup plus petit dans l'infrarouge lointain. Tout de même, la plupart des objets s'approchent dans certaines gammes de fréquence. Le corps humain, par exemple, est presque un corps noir dans l'infrarouge (d'où les lunettes de nuit militaires…). Pour traiter les différents corps, appelés "corps gris", nous introduisons un facteur appelé "émissivité totale", , qui relie l'émittance émise par le corps à celle émise par un corps noir parfait pour lequel . Nous avons donc :
(225)
Remarque: La relation de Stefan-Boltzmann nous donne la puissance émise par un corps par unité de surface en l'exprimant de façon proportionnelle à la quatrième puissance de la température. Cet exposant nous donne la raison pour laquelle il devient de plus en plus difficile d'augmenter la température d'un corps en le chauffant, celui-ci perdant de plus en plus rapidement l'énergie que nous fournissons pour son échauffement.
LOI DE PLANCK
Nous considérons maintenant le corps noir comme un système isolé à l'équilibre thermique, dans lequel le rayonnement est à l'état stationnaire et réfléchi totalement par les parois. Les photons peuvent être dès lors considérés comme des particules n'interagissant pas entre elles dans un puits de potentiel à parois rectiligne
Ainsi, identiquement à ce que nous avons vu dans le chapitre de physique quantique ondulatoire, le résolution du problème est celui d'un puits de potentiel à parois rectilignes pour laquelle nous avions obtenu pour fonction d'onde :
(226)
à propos de laquelle il faut appliquer les conditions aux limites.
Les conditions que nous avions imposées lors de notre étude de ce cas en physique quantique ondulatoire étaient trop restrictives (c'est la raison pour laquelle elles sont appelées "conditions aux limites strictes"). Effectivement, les atomes de la paroi absorbent et émettent le rayonnement quel que soit la manière dont le rayonnement est incident. Mais l'équilibre impose au moins qu'elles soient que les conditions aux limites soient périodiques de par la définition même de l'équilibre. C'est la raison pour laquelle nous imposons ce que nous appelons les "conditions au limites périodiques" :
- pour et , nous avons :
- la fonction d'onde doit présenter un nombre entier de demi-longueur d'onde sur la longueur
- dans le corps noir, donc
- si aux extrémités ( et ) nous avons l'argument du sinus à la même valeur (à un facteur multiplicatif réel près) en 0 et en .
Donc nous devons avoir :
(227)
et comme , après quelques simplifications élémentaires, nous avons :
(228)
L'énergie totale de la particule présente donc une suite discrète de valeurs, les seules permises. La valeur de L est quant à elle déterminée à l'aide du modèle de Bohr ou de Sommerfeld en fonction des cas.
Puisque les fonctions d'onde correspondantes dans le puits sont , nous avons donc:
(229)
Ainsi, l'énergie totale peut s'écrire :
(230)
Ainsi, étant donné que la fonction d'onde est une probabilité conditionnelle, nous avons sous forme de phaseur :
(231)
et les énergies discrètes associées sont alors :
(232)
Le vecteur étant donc défini par :
(233)
Remarque: Nous constatons facilement que les écarts d'énergie entre niveaux consécutifs sont d'autant plus faibles que les dimensions du corps noir (assimilé à une boîte) sont plus grandes; pour des dimensions macroscopiques, ces écarts sont alors totalement inappréciables. Ce constat nous permettra un peu plus loin de faire une petite approximation.
Explication : Pour un électron () enfermé dans une boîte cubique de côté , l'écart entre deux niveaux consécutif est :
(234)
donc environ …
Les vecteurs qui nous intéressent (puisqu'ils représentent respectivement chacun un micro-état possibles), plongé dans l'espace des phases des nombre d'onde, ont leur extrémité situées en l'un des nœuds d'un réseau tridimensionnel constitué de mailles élémentaires dont les arêtes sont parallèles aux axes et qui mesurent respectivement . Nous voulons évaluer le nombre de vecteurs pour lesquels cette extrémité tombe dans l'intervalle entre les deux sphères centrées à l'origine et de rayons de norme K et K + dK. Le volume de la coquille sphérique comprise entre les deux sphères est donc trivialement donnée par :
(235)
Le nombre de mailles élémentaires (de micro-états) incluses dans cette région de l'espace des est, à peu de chose près, égal au nombre de fois que son volume contient celui de la maille élémentaire, qui vaut :
(236)
Nous obtenons ainsi le nombre de micro-états dans le volume (donc la densité de micro-états) :
(237)
Or, il ne faut pas oublier les relations suivantes (cf. chapitres de Mécanique Ondulatoire, Physique Quantique Corpusculaire et Relativité Restreinte) :
(238)
Donc :
(239)
Il vient :
(240)
Dans un corps noir à l'équilibre thermodynamique, les photons forment un gaz dont les constituant n'interagissent pas entre eux chimiquement. Ce type de situation est typiquement décrite par la distribution de Bose-Einstein que nous avons vu en mécanique statistique. Ainsi, puisque , nous avons dans le cas d'un spectre discret d'états :
(241)
et dans un cas que nous considérons comme continu :
(242)
Dans le corps noir, nous avons pour énergie interne :
(243)
La radiation d'un corps noir est donc donnée par la "loi de Planck":
(244)
et puisque :
et (245)
donc :
(246)
Or, comme , il convient de prendre la valeur absolue tel que :
(247)
Enfin, nous obtenons encore une autre forme de la loi de Planck qui exprime la densité de flux d'énergie pour une longueur d'onde précise est donnée :
(248)
Remarque: Planck a proposé cette loi en 1900 sans connaître la distribution statistique de Bose-Einstein ce qui est remarquable expérimentalement parlant!
Si (donc dans le domaines des grandes longueurs d'ondes), le développement de Taylor de pour x petit donne donc :
(249)
Ce qui nous donne :
(250)
et la loi de Planck devient donc la "loi de Rayleigh-Jeans":
(251)
Que nous retrouvons aussi parfois sous la forme :
(252)
A l'inverse, nous avons :
Ce qui nous donne :
(253)
et la loi de Planck devient donc :
(254)
qui n'est rien d'autre que la "première loi de Wien".
Nous pouvons également redémontrer la loi de Stefan (nous l'avons déjà fait en thermodynamique mais avec une autre démarche) mais en plus démontrer la provenance de la constante de Stefan-Boltzmann .
Rappelons que d'abord que le flux énergétique (cf. chapitre d'Optique Géométrique) est entre autres donné par :
(255)
Comme la luminance dépend de la fréquence et donc de la température du corps émetteur, nous pouvons ajouter :
(256)
L'énergie rayonnée à travers une surface élémentaire donnée est donc dès lors :
(257)
Si le volume d'émission est considéré comme un volume élémentaire assimilé à un cylindre d'hauteur cdt et de sommet ayant pour surface (cf. chapitre d'Optique Géométrique) la densité d'énergie est alors donnée par :
(258)
Compte tenu de l'isotropie du corps noir à l'équilibre, nous avons :
(259)
L'analyse dimensionnelle nous donne :
(260)
Enfin, il est utile de considérer la puissance totale émise par unité de surface (donc l'émittance) :
(261)
Si nous intégrons sur la demi-surface d'une sphère (par rapport au point de surface de l'émetteur) :
(262)
Effectivement pour une sphère (cf. chapitre de Trigonométrie) :
(263)
Comme la luminance est indépendante de (isotropie du rayonnement du corps noir), l'intégration est élémentaire, et nous trouvons :
(264)
L'émittance totale est alors donnée par :
(265)
En posant , nous pouvons simplifier l'intégrande de sorte que :
(266)
Donc :
(267)
Franchement…, il était difficile de le deviner…
Déterminons pour quelle longueur fréquence, nous avons le maximum de densité d'énergie. En d'autres termes cela revient à chercher où la dérivée :
(268)
s'annule. Donc :
(269)
Divisons par :
(270)
La dernière relation admet une seule racine positive que nous pouvons déterminer avec Maple (evalf(solve(exp(-x)-1+1/3*x=0,x));) :
(271)
Ce qui nous donne la "deuxième loi de Wien" ou "loi de déplacement" :
(272)
où a est appelée "constante de Wien".
Remarque: Cette relation est aussi parfois donnée dans la littérature non pas par rapport à la fréquence mais à la longueur d'onde.
Insistons sur le fait que la loi de Planck n'est valable que dans les cas où le rayonnement est à l'équilibre thermique. Cette restriction est important dans la pratique, car la phénomènes d'émission ou d'absorption de rayonnement par la matière se produisent le plus souvent dans des conditions hors de l'équilibre : dans le cas par exemple de l'éclairage par une lampe électrique ou du chauffage électrique par rayonnement infrarouge, il y a transformation irréversible (et donc hors d'équilibre) d'énergie électrique en énergie de rayonnement; de même, le rayonnement solaire est produit par les réactions nucléaires qui ont lieur à l'intérieur du soleil et qui consument peu à peu sa substance; au niveau microscopique également, l'émission d'un photon par un atome excité est très souvent un retour irréversible de l'atome à son état fondamental (émission spontanée hors d'équilibre). Dans le cas du corps noir, au contraire, le rayonnement est confiné à l'intérieur d'une enceint fermée (nous laissons éventuellement une fraction négligeable de ce rayonnement s'échapper à l'extérieur pour y être soumise aux mesures) et nous pouvons ainsi parvenir à l'équilibre thermique avec les parois.
La loi de Planck que nous avons démontrée précédemment est parfaitement vérifiée par l'expérience dans tout le domaine de températures accessibles à ce jour :
(273)
Il est à noter que beaucoup de sources lumineuses émettent un flux lumineux qui ne suit pas la loi du corps noir (un filament d'ampoule, par exemple) et que la loi de Wien ne s'applique pas à eux. En revanche, il reste avéré qu'ils émettent à une longeur d'onde d'autant plus courte qu'ils sont chauds.
Il faut également garder à l'esprit que le flux lumineux provenant d'un objet n'est pas forcément de nature thermique ; autrement dit sa couleur ne renseigne pas toujours sur sa température. Par exemple, la couleur du ciel provient de lumière solaire bleue diffusée par l'air et non d'une hypothétique température de 15'000 [K]. De même un arbre est vert, non pas parce qu'il est à 8'000 [K], mais parce qu'il réfléchit la lumière verte qui compose la lumière du jour