L'encyclopédie des Sciences
  Physique Nucléaire
 

INTRODUCTION HISTORIQUE

Auteur de l'introduction : Dr. Angel Brucena pour Sciences.ch

La physique nucléaire est la science qui étudie non seulement le noyau atomique en tant que tel (élaboration d'un modèle théorique) mais aussi la façon dont il interagit lorsqu'une particule arrive "à proximité" du noyau.

CHRONOLOGIE

Beaucoup de scientifiques et philosophes ont contribué directement ou indirectement au développement de l'astrophysique qui ne c'est bien évidemment pas développée que par le travail d'un seul homme). Par les paragraphes qui vont suivre, nous allons présenter quelques personnages célèbres placés dans le cadre de ce domaine de la physique.

PHÉNOMÈNES RADIOACTIFS

La radioactivité fut découverte en 1896 par Henri Becquerel (1852-1908), lors de ses travaux sur la phosphorescence : les matières phosphorescentes émettent de la lumière dans le noir après expositions à la lumière, et Becquerel supposait que la lueur qui se produit dans les tubes cathodiques exposés aux rayons X pouvait être liée au phénomène de phosphorescence.
Par ailleurs, tous les composés d'uranium impressionnaient la plaque, y compris les sels d'uranium non phosphorescents et l'uranium métallique. À première vue, ce nouveau rayonnement était semblable au rayonnement X, découvert l'année précédente (en 1895) par le physicien allemand Wilhelm Röntgen (1845-1923).

Des études ultérieures menées par Becquerel lui-même, ainsi que par Marie Curie-Sklodowska (1867-1934) qui, sur le conseil de son mari Pierre Curie (1859-1906), fit de la radioactivité le sujet de sa thèse de doctorat, ou encore par Ernest Rutherford (1871-1937) et d'autres hors de la France, montraient que la radioactivité est nettement plus complexe que le rayonnement X. En particulier, ils trouvaient qu'un champ électrique ou magnétique sépare les rayonnements dits "uraniques" en trois faisceaux distincts, qu'ils baptisaient a, ß et ?. La direction de la déviation des faisceaux montrait que les particules a étaient chargées positivement, les ß négativement, et que les ? étaient neutres. En outre, la magnitude de la déflection indiquait nettement que les particules a étaient bien plus massives que les ß.

En faisant passer les rayons a dans un tube à décharge et en étudiant les raies spectrales ainsi produites, on pouvait conclure que le rayonnement a est constitué d'hélions, autrement dit de noyaux d'hélium. D'autres expériences permettaient d'établir que les rayons ß sont composés d'électrons comme les particules dans un tube cathodique, et que les ? sont, tout comme les rayons X, des photons très énergétiques. Par la suite, on découvrit que de nombreux autres éléments chimiques ont des isotopes radioactifs. Ainsi, en traitant des tonnes de pechblende, une roche uranifère, Marie Curie réussit à isoler quelques milligrammes de radium dont les propriétés chimiques sont tout à fait similaires à celles du baryum (les deux sont des métaux alcalino-terreux), mais qu'on arrive à distinguer à cause de la radioactivité du radium.

Les dangers de la radioactivité pour la santé ne furent pas immédiatement reconnus. Ainsi, Nikola Tesla (1856-1943), en soumettant volontairement en 1896 ses propres doigts à une irradiation par des rayons X, constata que les effets aigus de cette irradiation étaient des brûlures qu'il attribua, dans une publication, à la présence d'ozone.

DIFFUSION DE RUTHERFORD

En 1911, Ernest Rutherford avait observé à Montréal qu'en bombardant une fine feuille de mica avec des particules alpha, on obtenait une déflexion de ces particules. Geiger et Marsden refaisant de façon plus poussée ces expériences et en utilisant une feuille d'or, constatèrent que certaines particules alpha étaient déviées de plus de quatre-vingt dix degrés. Rutherford émit alors l'hypothèse, dont Geiger et Marsden confrontèrent les conclusions à l'expérience, qu'au centre de l'atome devait se trouver une sorte de noyau contenant presque toute la masse et toute la charge positive de l'atome, les électrons déterminant en fait la taille de l'atome (cf. chapitre de Physique Quantique Corpusculaire).

EFFET PHOTOÉLECTRIQUE

Dans l'effet photoélectrique, on éclaire une plaque de métal et celle-ci émet des électrons. Les électrons ne sont émis que si la fréquence de la lumière est suffisamment élevée (la fréquence limite dépend du matériau), alors que leur nombre, qui détermine l'intensité du courant, est proportionnel à l'intensité de la source lumineuse.

En 1905, l'interprétation d'Einstein était que l'absorption d'un photon, permettait d'expliquer parfaitement toutes les caractéristiques de ce phénomène. Les photons de la source lumineuse possèdent une énergie caractéristique déterminée par la fréquence de la lumière. Lorsqu'un électron du matériau absorbe un photon et que l'énergie de celui-ci est suffisante, l'électron est éjecté; sinon l'électron ne peut s'échapper du matériau.

EFFET COMPTON

En physique, la diffusion Compton est la diffusion d'un photon sur une particule de matière, comme un électron. On appelle effet Compton plus spécifiquement l'augmentation de la longueur d'onde du photon par la diffusion. Ce dernier phénomène a été observé la première fois par Arthur Compton en 1923. L'expérience de Compton devint l'ultime observation qui convainquit tous les physiciens que la lumière peut se comporter comme un faisceau de particules dont l'énergie est proportionnelle à la fréquence (ou inversement à la longueur d'onde). Cet effet est important en physique car il a démontré que la lumière ne peut pas être purement décrite comme seulement une onde, mais aussi comme une particule.

FISSION NUCLÉAIRE

Le phénomène de fission nucléaire induite fut découvert en 1938, par trois physiciens du Kaiser-Wilhelm-Institut für Chemie de Berlin : Otto Hahn, Lise Meitner et Fritz Strassmann.

Les résultats du bombardement de noyaux d'uranium par des neutrons avait déjà paru intéressants et tout à fait intrigants. D'abord étudiés par Enrico Fermi et ses collègues en 1934, ils ne furent correctement interprétés que plusieurs années plus tard.

Le 16 janvier 1939, Niels Bohr arriva aux États-Unis pour passer plusieurs mois à l'Université de Princeton, où il avait hâte de discuter de certains problèmes théoriques avec Albert Einstein. Juste avant son départ du Danemark, deux de ses collègues, Lise Meitner et Otto Robert Frisch, lui avaient fait part de leur hypothèse selon laquelle l'absorption d'un neutron par un noyau d'uranium provoque parfois la scission de celui-ci en deux parties approximativement égales, ainsi que la libération d'une énorme quantité d’énergie : ils appelèrent ce phénomène "fission nucléaire". Cette hypothèse se basait sur l'importante découverte de Hahn et Strassmann (publiée dans Naturwissenschaften au début du mois de janvier 1939) qui démontrait que le bombardement de l'uranium par des neutrons produisait un isotope du baryum.

Bohr avait promis de garder secrète l'interprétation de Meitner et Frisch jusqu'à ce qu’ils publient un article afin de leur assurer la paternité de la découverte et de l'interprétation, mais à bord du bateau en route pour les États-Unis, il en parla avec Léon Rosenfeld, en oubliant de lui demander de respecter le secret.

Dès son arrivée, Rosenfeld en parla à tous les physiciens de Princeton, et la nouvelle se répandit aux autres physiciens, tel Enrico Fermi de l’Université de Columbia. Les conversations entre Fermi, John R. Dunning et G. B. Pegram débouchèrent sur la recherche à Columbia des rayonnements ionisants produits par les fragments du noyau d'uranium obtenus après cette fameuse "fission".

Le 26 janvier 1939, se tint une conférence de physique théorique à Washington DC, organisée conjointement par l'Université George Washington et la Carnegie Institution de Washington. Fermi quitta New York pour participer à cette conférence avant le lancement des expériences de fission à Columbia. Bohr et Fermi discutèrent du problème de la fission, Fermi mentionnant en particulier la possibilité que des neutrons puissent être émis durant le processus. Bien que ce ne soit qu’une hypothèse, ses conséquences c'est-à-dire la possibilité d’une réaction en chaîne étaient évidentes. De nombreux articles à sensation furent publiés dans la presse à ce sujet. Avant la fin de la conférence à Washington, plusieurs autres expériences étaient lancées pour confirmer la thèse de la fission du noyau.

Le 15 février 1939, dans la Physical Review quatre laboratoires annonçaient des résultats positifs (Université de Columbia, Carnegie Institution de Washington, Université Johns-Hopkins, Université de Californie). À ce moment, Bohr savait que des expériences similaires avait été entreprises dans laboratoire de Copenhague (Danemark) vers le 15 janvier (Lettre de Frisch à Nature datée du 16 janvier 1939 et parue dans le numéro du 18 février). Frédéric Joliot à Paris avait aussi publié ses premiers résultats dans les Comptes Rendus du 30 janvier 1939.

FUSION NUCLÉAIRE

Dès 1940, le hongro-américain Edward Teller entrevoit la possibilité d'utiliser l'énorme quantité de chaleur (108 °C, soit cent millions de degrés Celsius) dégagée par l'explosion d'une bombe à fission pour déclencher le processus de fusion nucléaire. En 1941, Teller rejoint le projet Manhattan, qui a pour objectif de développer la bombe à fission.

Après des travaux préliminaires à Chicago avec Enrico Fermi, et à Berkeley avec Robert Oppenheimer, Teller se rend aux laboratoires de Los Alamos (Nouveau-Mexique) pour travailler sur la bombe atomique sous la direction d'Oppenheimer. Mais devant les difficultés rencontrées à réaliser une bombe à fission, moins complexe, la piste de la bombe H n'est pas suivie, à la grande déception de Teller.

En 1949, lorsque les Soviétiques font exploser leur propre bombe à fission, les analyses des services de renseignements américains démontrent que c'est une bombe utilisant le plutonium comme combustible nucléaire. Le monopole des États-Unis n'existe alors plus et la nouvelle cause un choc psychologique considérable. En effet, les Américains estimaient pouvoir conserver le monopole de l'arme nucléaire pendant une dizaine d'années. Ils s'engagent alors dans une nouvelle épopée, celle de la recherche d'une bombe encore plus puissante que la bombe à fission : la bombe à fusion.

Le président des États-Unis Harry Truman demande ainsi au laboratoire de Los Alamos de développer une bombe fonctionnant grâce à la fusion des noyaux. Oppenheimer est contre cette décision, considérant qu'elle n'est qu'un autre instrument de génocide. Teller est alors mis en charge du programme. Cependant, son modèle, bien que raisonnable, ne permet pas d'atteindre le but visé.

Le mathématicien polono-américain Stanislaw Marcin Ulam, en collaboration avec C. J. Everett, réalise des calculs détaillés qui montrent que le modèle de Teller est inefficace. Ulam suggère alors une méthode qui sera retenue. En plaçant une bombe à fission à une extrémité et le matériel thermonucléaire à l'autre extrémité d'une enceinte, il est possible de diriger les ondes de choc produites par la bombe à fission. Ces ondes compressent et allument le combustible thermonucléaire.

Au début, Teller infirme l'idée, puis comprend tout son mérite et suggère l'utilisation de radiations plutôt que des ondes de choc pour comprimer le matériel thermonucléaire. La première bombe H, Ivy Mike, explose sur l'atoll de Eniwetok (près de Bikini, Océan Pacifique) le premier novembre 1952 et ce, à la satisfaction de Teller, malgré le désaccord d'une majeure partie de la communauté scientifique.

L'implosion par radiation est maintenant la méthode standard pour créer les bombes à fusion. Les deux créateurs, Ulam et Teller, ont d'ailleurs breveté leur bombe H.

STRUCTURE DU NOYAU ATOMIQUE

La compréhension théorique du noyau s'est révélée très difficile. Divers modèles représentent bien certaines de ses propriétés, mais la théorie bute sur une difficulté (souvent appelée problème à N corps) commune à la physique des systèmes formés de nombreux constituants. Développé dès la fin des années 1930, le modèle de la goutte liquide assimilait le noyau atomique à une goutte sphérique d'un liquide incompressible de masse volumique extraordinairement élevée et dans laquelle la charge électrique serait uniformément diluée. Les neutrons et les protons interagiraient entre eux par une unique force de très courte portée. Ce modèle, essentiellement classique et macroscopique, a donné des résultats précieux sur la stabilité des noyaux vis-à-vis de la radioactivité b et de la fission spontanée.

Le modèle en couches du noyau atomique développé entre 1948 et 1950, en particulier par Johannes Hans Daniel Jensen et Maria Goeppert Mayer (tous deux Prix Nobel de physique 1963), a permis d'expliquer un grand nombre de propriétés structurales du noyau. La remarquable stabilité des noyaux contenant un nombre magique (c'est-à-dire 2, 8, 20, 50, 82 ou 106) de protons ou de neutrons suggère que, de manière analogue aux orbites électroniques décrites par Niels Bohr, les nucléons (protons ou neutrons) se meuvent sur des orbites appartenant à des couches bien séparées, les nombres magiques correspondant à des couches complètes.

Le modèle en couches ne rendait pas compte de la déformation de la distribution de charge, souvent observée. James Rainwater, Aage Bohr et Ben Mottelson (Prix Nobel de physique 1975) proposèrent indépendamment en 1950 de considérer l'influence des nucléons externes sur le comportement collectif des nucléons du cœur du noyau. La déformation moyenne qui en résulte amène à ajouter des niveaux supplémentaires aux niveaux d'énergie prévus par le modèle en couche ; ainsi un noyau subissant une rotation globale peut se désexciter - c'est-à-dire ralentir sa rotation - en émettant des photons. La mise en évidence des modes d'oscillation de surface, de compression et de polarisation des états excités nucléaires prouve la validité de cette approche qui unifie en quelque sorte le modèle de la goutte et le modèle en couches.

DATES CLÉS

- 1895 : Wilhelm Röntgen découverte du rayonnement X.
- 1896 : Henri Becquerel découvre la radioactivité.
- 1896-1911: Pierre et Marie Curie, découverte des nouveaux éléments comme le Radium et Polonium.
- 1905 : Albert Einstein, interprétation de l'effet photoélectrique.
- 1911 : Ernest Rutherford, proposition d'un modèle de noyau atomique.
- 1923 : Arthur Compton études de la diffusion des photons sur la matière.
- 1938 : Otton Hahn, Lise Meitner et Fritz Strassmann découvrent la fission nucléaire.
- 1940 : Edward Teller découvre la fusion nucléaire.
- 1948-1950 : Jensen et Mayer proposent un nouveau modèle du noyau atomique en couches.

PERSPECTIVES/TENDANCES

La médecine nucléaire repose sur l'utilisation de sources radioactives et de l'interaction de ces sources avec les tissus humains. Cette interaction est exploitée à des fins de diagnostic (radiologie par exemple) ou de traitement (radiothérapie). À partir des années 1980 se sont développées les techniques d’imagerie par résonance magnétique nucléaire(IRM) qui font appel aux propriétés magnétiques des noyaux.

L'utilisation de la radioactivité comme moyen de datation fut suggérée dès 1912 par Rutherford. La datation au carbone 14, par exemple, repose sur un principe simple : cet isotope est présent dans la biosphère grâce au bombardement des particules cosmiques sur les noyaux d'azote, et le taux de formation compense sa disparition radioactive. Tant qu'un organisme est vivant, il fixe cet isotope aussi bien que l'isotope 12 du carbone et la concentration relative de ces deux noyaux reste quasi constante. Lorsque l'organisme meurt, les échanges avec l'extérieur s'arrêtent et le nombre moyen de noyaux de carbone 14 suit la loi de décroissance caractéristique, avec une demi-vie (période au terme de laquelle la concentration est divisée par deux) de 5 730 ans. On utilise maintenant bien d'autres isotopes que le carbone 14.

La nucléosynthèse explique la fabrication dans l'Univers des divers noyaux qui le constituent actuellement. Deux processus bien distincts sont cependant nécessaires pour expliquer l'abondance des différents éléments chimiques dans l'univers :

SYNTHèse

La physique nucléaire occupe une place à part dans l'étude des différents niveaux d'organisation de la matière. Ses potentialités d'application dans les domaines militaire et énergétique ont favorisé son développement, qui fut extrêmement rapide, ce qui a permis aux physiciens de disposer de moyens expérimentaux considérables dès la fin des années 1930. De la compréhension de la structure des noyaux atomiques et des interactions responsables de la stabilité ou de l'instabilité des divers isotopes jusqu'à l'astrophysique et aux applications médicales ou énergétiques, elle couvre aujourd'hui un domaine de recherche aussi vaste que varié.

La physique nucléaire est la science qui s'occupe de l'étude des phénomènes inhérents au noyau de l'atome et à ses nucléons (d'où le terme de "NUCLéaire"...). La radioactivité faisant partie intégrante de cette science. 

Cette science est pour sa plus grande partie, une physique expérimentale. Il est mathématiquement aujourd'hui impossible de résoudre formellement les systèmes d'équations régissant le comportement d'atomes tels que le plutonium, ou l'uranium. Cependant, la physique et les mathématiques ont permis la construction d'outils tels que les ordinateurs qui finalement permettent de résoudre et de simuler avec des méthodes mathématiques numériques certains systèmes complexes.

Nous supposerons tout au long de ce sujet, que le lecteur aura au préalable au moins parcouru le modèle de Bohr-Sommerfeld que nous avons étudié dans le chapitre de physique quantique corpusculaire ainsi que (de préférence mais non obligatoire) la théorie de l'effet tunnel dans le chapitre de pyhsique quantique ondulatoire.

Remarque: A la suite de ce chapitre, tout lecteur pourra se convaincre de manière calculatoire et sans peine, que la radio-activité peut être extrêmement dangereuse pour la santé (tissus biologiques). Les valeurs mortelles données dans des tables disponibles au grand public et aux phyisicens montre que certains éléments en quantité infime suffisant pour tuer (cf. chapitre de Génie Nucléaire). Raison pour laquelle dans le domaine du génie nucléaire la règle de la tolérance zéro en sécurité doit s'appliquer à l'ingénieur en nucléaire et ceci quelqu'en soit les coûts!

L'ARME NUCLÉAIRE

Sans souhaiter faire d'amalgame, nous considérons qu'il est indispensable, à l'époque ou l'arme nucléaire sert de moyen de dissuasion et donc d'élément de stabilité planétaire (cf. chapitre théorie de la décisions), à la culture générale du physicien de connaître certaines propriétés élémentaires de la bombe atomique à fission. Nous allons donc exceptionnellement dans ce petit sous-chapitre sans mathématiques (celles de l'arme nucléaire et des centrales nucléaires seront vus lors de notre étude de la neutronique) parler un petit peu de cette arme de destruction massive qui fascine souvent les étudiants des les aulas de cours.

Certes, nous étudierons plus tard théoriquement, comment provoquer une réaction en chaîne divergente dans un volume donné. Cependant, il ne faudra évidemment pas s'attendre à acquérir les connaissances nécessaires à la fabrication d'une telle arme puisque cela ne fait pas appel uniquement à des connaissances de la physique, mais également à de l'électronique, mécanique, chimie, mathématiques, etc.

S'agissant d'une explosion, l'usage s'est immédiatement introduit de comparer l'énergie d'une arme nucléaire à celle d'un explosif courant: le Trinitrotoluène (T.N.T). Ce T.N.T fournit 4'200'000 Joules par Kilo, mais les énergies des armes nucléaires sont telles qu'il est plus parlant de les évaluer en milliers de tonnes - ou kilotonnes de T.N.T (ultérieurement les armes thermonucléaires représentèrent un nouveau bond dans les énergies explosives: l'unité pratique de comparaison est le million de tonnes - Megatonne de T.N.T).

La fission de 56 grammes d'Uranium 235 ou de Plutonium 239 donne l'équivalent de 1 Kilo-tonne avec la fission de  atomes (ce n'est même pas une valeur entière du nombre d'Avogadro!!).

La première explosion nucléaire expérimentale, à Alamogordo le 16 juillet 1945 - fut évaluée à 20 Kt, avec une bonne précision car il avait été possible de mettre en place de multiples dispositifs de mesure.

Celles du 6 août, sur Hiroshima (à Uranium 235 ) puis du 9 août sur Nagasaki (au Plutonium 239 ) furent d'abord estimées aussi à 20 Kt. Ultérieurement, et par étude fine sur les effets de souffle, leurs énergies furent respectivement ramenées à environ 17 et respectivement 15 Kt. Cela n'en représentait pas moins l'équivalent d'un chargement en T.N.T. d'un convoi de l'ordre de 6000 camions de l'US Army.

Voici un schéma à la fois intéressant et persuasif des effets d'une bombe atomique (pour information à partir d'une vitesse de 220 [km/h]un être humain moyen est soulevé du sol) :


  (1)

Donc en d'autres termes voici en résumé et en approximations les effets d'une arme à fission de 1 Mt explosant à 2'450 mètres d'altitude (tout en sachant qu'aujourd'hui les américains et les russes ont des armes nucléaires à fusion dont la puissance de feu dépasse les 50 Mégatonnes...):

Jusqu'à 1.3 [km], tout est rasé, même les bâtiments en béton armé. Jusqu'à 4.8 [km], la plupart des usines et des bâtiments commerciaux sont détruits; les habitations faites de briques et de bois sont anéanties, et leurs débris éparpillés. Jusqu'à 7 [km], les ensembles commerciaux de structure légère et les résidences privées sont démolis. Les constructions plus lourdes sont sérieusement endomagées. Jusqu'à 9.5 [km], les murs des bâtiments légers sont renversés, les résidences privées gravement déteriorées. Le souffle (ou surpression) est encore assez puissant pour tuer les personnes qui se trouvent à l'extérieur (explosion des poumons). Jusqu'à 18.6 [km], différents édifices sont endommagés, les rues sont jonchées de débris de vitres et de tuiles. 10 à 20 minutes après la déflagration, les débris aspirés dans la dépression de la tige du champignon atomique, retombent au sol. Suivent 1 à 2 heures après, les débris se situant dans le champignon (sa tête).

La plupart des effets représentés sur le schéma ne sont pas proportionnels à l'énergie. Il n'y a donc pas lieu de faire une simple multiplication pour une arme de 30'000 mégatonnes!

Remarque: Pour un petit calcul sympathique sur les bombes nucléaires utilisant l'analyse dimensionelle le lecteur pourra se référer au chapitre des principes de la mécanique où nous donnons l'expression de l'énergie d'une bombe en fonction du rayon de sa boule de feu.

RADIOACTIVITÉ

Lorsque nous analysons expérimentalement la radioactivité, nous nous apercevons d'abord que le noyau n'émet pas ses constituants. Ensuite, nous découvrons de nouvelles forces, qui luttent et dominent  à tour de rôle. Enfin, de nouvelles particules de matière, et même d'antimatière apparaissent. Le décryptage de ces énigmes a fourni une image cohérente du monde infiniment petit dont la radioactivité a révélé l'existence, un monde où les lois physiques échappent à une intuition issue de la pratique quotidienne de notre monde macroscopique.

D'emblée, la radioactivité a surpris : dès 1900, on savait que les rayonnements émis par l'Uranium et ses descendants avaient trois composantes, baptisées : "alpha" , "bêta" et "gamma"  séparables par l'actions d'un champ magnétique comme indiqué symboliquement dans l'image ci-dessous :


  (2)

Plus tard, on montra que la radioactivité alpha était l'émission de noyaux d'hélium, la radioactivité bêta l'émission de photons. De ces observations, il était logique de déduire que le noyau était constitué de ces trois types de particules, ce qui n'est pas le cas : les constituants du noyau n'ayant été découvert par J.Chadwick qu'en 1932.

Alors, pourquoi les noyaux radioactifs n'émettent-ils pas des protons ou des neutrons? Comment les noyaux éjectent-ils autre chose que leurs constituants? Ces questions doivent être précédées d'une autre, sans doute plus fondamentale pourquoi certains noyaux sont-ils radioactifs? La réponse est la même pour tous les phénomènes physiques spontanés. La pomme tombant de l'arbre, par exemple : c'est parce que le système peut rejoindre un état plus stable en perdant de l'énergie potentielle, l'excédant d'énergie s'échappant sous forme d'énergie cinétique, c'est-à-dire sous la forme de mouvement.

Avant de continuer dans la description détaillée de ces phénomènes, donnons quelques définitions :

D1. Tout élément chimique (cf. section de chimie) est caractérisé par son nombre de protons Z appelé "nombre atomique".

D2. Le "nombre de masse" A est par définition le nombre de proton Z sommé du nombre de neutrons N de l'élément chimique donné. Ainsi, ce dernier se trouve entièrement caractérisé si nous connaissons son nom ou son nombre atomique Z et son nombre de neutron N ou son nombre de masse. Nous notons usuellement n'importe quel élément sous la forme:

  (3)

Les éléments chimiques d'une même espèce (même Z) peuvent avoir différents nombres de neutron N, c'est-à-dire différents nombres de masse A, nous parlons alors "d'isotopes" ou de "nucléides". Evidemment, l'énergie nucléaire (du noyau) associée à un même élément chimique diffère selon le nombre de masse et il existe nous le verrons un nombre A pour lequel l'énergie est minimale. Les isotopes pour lesquels l'énergie n'est pas minimum pourront, pour certains d'entre eux et de façon spontanée, libérer l'excès d'énergie en se désintégrant.

D3. La propriété qu'ont certains atomes de modifier spontanément la structure de leurs noyaux pour atteindre un niveau d'énergie inférieur, plus fondamental, est appelé "radioactivité". Nous parlons alors de "radio-isotopes" pour les atomes concérnés..

Les propriétés chimiques d'une atome dépendent (cf. section de chimie) du nombre et la disposition des électrons dans son nuage. Ainsi tous les isotopes d'un même élément chimique ont les mêmes propriétés chimiques (c'est cette caractéristique chimique qui à la base de la médecinde nucléaire). Ce sont en quelque sorte des atomes "frères". Cependant, la légère différence de masse de leur noyau fait que leurs propriétés physique se différencient quelque peu.

D4. Enfin, les "isotones" sont les isotopes de différents éléments chimiques (différent Z) ayant le même nombre de neutron N.

La petitesse de atomes posent un problème évident de mesure de masse. C'est pourquoi il a été préféré par les physiciens et les chimistes de mettre en place un système de masse atomique qui est un système de nombres proportionnels à la masse réelle des atomes.

Comme il y a une infinité de systèmes de nombres, un a été choisi judicieusement comme référence et c'est le chiffre 12 pour l'isotope 12 du Carbone:

    (4)

où "uma" est l'abréviation de "unités de masse atomique".

Ceci a pour conséquence intéressante de conférer au proton et au neutron des masses atomiques très voisines de l'unité.

Nous pouvons donc relier le système S.I. (cf. chapitre des principes de la mécanique) avec le système des unités de masse atomique (uma).

D5. "L'unité de masse atomique" est par définition la masse du 1/12 de l'atome de Carbone , nous avons (la masse des électrons est négligée car très faible par rapport à celle des nucléons):

  (5)

Donc la masse du proton en uma vaut:

  (6)

Attention, cependant la masse molaire d'un isotope différent que le  ne peut pas être calculée par addition des masses des nucléons (protons et neutrons) qui compose son noyau car il faut tenir compte du défaut de masse (notion que nous verrons plus loin).

Les masses peuvent être aussi exprimées en unités d'énergie puisqu'il y a équivalence masse-énergie comme nous l'avons vu en relativité restreinte d'après la relation   (cf. chapitre de relativité restreinte). L'unité d'énergie en physique nucléaire souvent utilisée est "l'électron-volt".

D6. Un "électron-volt" noté [eV] est l'énergie acquise par une charge élémentaire soumise à une différence de potentiel de 1 [V].

Ainsi, d'après la relation entre l'énergie et le potentiel électrostatique  (cf. chapitre d'électrostatique), nous avons : 

  (7)

Nous en tirons puisque la vitesse de la lumière dans le vide vaut :

  (8)

DÉSINTÉGRATION

Certains noyaux possèdent donc la propriété de modifier spontanément leur structure interne pour atteindre un niveau d'énergie plus fondamental. Cette transformation s'accompagne de l'émission de particules et/ou de rayonnements électromagnétiques. Le noyau résiduel peut être lui aussi radioactif et subir d'autres transformations par la suite ou être stable.

La désintégration radioactive d'un isotope est un phénomène aléatoire et nous ne pouvons jamais dire à quel moment un noyau va se désintégrer (probabilité sans effet de mémoire).

Remarque: Pour la démonstration de cette affirmation, le lecteur peut se reporter au chapitre de techniques de gestion dans la partie traitant de la théorie des files d'attentes et en particulier la modélisation des arrivées. Effectivement, le développement est tout point identique mais seulement l'objet d'étude change (ce ne sont alors plus des appels téléphoniques mais des désintégrations). Ainsi, on y démontre que sous certaines hypothèses le phénomène suit une loi de Poisson et nous y démontrons que celle-ci n'a pas de mémoire.

Nous ne pouvons donner que la probabilité de désintégration par unité de temps.Cette probabilité est donnée par la "constante radioactive" et a pour unité l'inverse du temps tel que . Cette constante peut être calculée comme nous l'avons déjà vu lors de l'étude de l'effet tunnel en physique quantique ondulatoire. 

La constante radioactive varie pour tous les isotopes connus:

  (9)

Soit N(t) le stock d'atomes d'un isotope radioactif au temps t. Le nombre d'atomes se désintégrant durant le temps infinitésimal dt est donc égal à :

    (10)

conduisant à une diminution du stock égale à :

  (11)

L'équation différentielle (cf. chapitre de calcul intégral et différentiel) s'écrit donc:

  (12)

ou :

  (13)

qui a pour solution très simple (cf. chapitre de calcul différentiel et intégral):

  (14)

avec  le stock de noyaux au temps .

Remarque: N(t) ne représente pas le nombre d'atomes restant au temps t mais le nombre le plus probable d'atomes radioactifs restant au temps t!!

Dans la pratique, la mesure de la constante radioactive se fait à l'aide de la décroissance de l'activité (voir plus loin) de l'isotope intéressé.

DEMI-VIE D'ISOTOPE

Définition: La "période radioactive" ou de "demi-vie"  d'un isotope est le temps moyen qu'il faut attendre pour que 50% du stock de noyaux radioactifs d'un isotope donné soit désintégré:

  (15)

Nous avons ainsi une relation très important entre la période de demi-vie et la constation radioactive!

Si le radio-isotope a le choix de se désintégrer selon deux voies de désintégration distinctes caractérisées de deux périodes radioactives distinctes  et , la demie-vie de ce nucléide est définie par la moyenne:

  (16)

et nous calculons le nombre de nucléides restant par la relation :

  (17)

ACTIVITÉ RADIOACTIVE

Définition: L'activité A d'une source radioactive est le nombre de désintégrations par unité de temps.

Remarque: Son unité de mesure est le "Becquerel" est est noté  . 1 Becquerel correspondant donc à une désintégration par seconde.

L'ancienne unité de mesure de la radioactivité était le "Curie" [Ci] . Le Curie avait été défini dans un premier temps comme l'activité d'environ un gramme de radium, élément naturel que nous retrouvons dans les sols avec l'Uranium. Cette unité est beaucoup plus grande que la précédente car par définition 1 [Ci] correspond à 37 milliards de désintégrations par seconde:

  (18)

L'activité s'obtient par la dérivation temporelle du stock d'atomes d'un échantillon donné:

  (19)

La relation dite "équation d'activité" :

montre ainsi que l'activité d'un nombre donné d'atomes N d'un isotope radioactif est proportionnelle à ce nombre et inversement proportionnelle à la demi-vie de l'isotope (de par la relation vue plus haute entre la constante radioactive et la période de demi-vie).

Exemple: 

Un gramme de  contient :

  (20)

donc l'activité de ce gramme vaut connaissant :

  (21)

Par le même raisonnement, mous montrons que l'activité au cours du temps suit la même loi exponentielle que la diminution du nombre de nucléides:

  (22)

avec :

  (23)

Expérimentalement pour déterminer la période de demi-vie d'un isotope radioactif nous procédons de la manière suivante :

1. Nous choisissons un échantillon pur d'un isotope dont nous souhaitons déterminer la période de demi-vie.

2. Au temps  nous mesurons à l'aide d'un détecteur pendant un intervalle de temps  fixé le nombre de désintégrations. Nous avons alors le nombre de désintégrations pendant un intervalle de temps en début d'expérience (l'unité de la mesure est alors les désintégrations et non pas le nombre de désintégrations par seconde).

3. Ensuite, pendant chaque  consécutif (l'intervalle de temps est fixé) nous mesurons le nombre de désintégrations pendant cet intervalle de temps. Cela nous donne donc une série des mesures du nombre de désintégrations observées pour  

4. A l'ensemble des mesures de désintégrations effectuées, nous enlevons le bruit de fond du laboratoire

Puisque :

  (24)

En prenant le logarithme néperien nous avons :

  (25)

Soit :

  (26)

Il s'agit donc de l'équation d'une droite de pente  et d'ordonnée à l'origine . Ainsi, la constante radioactive est immédiatement mesurée et l'on en déduit rapidement la période de demie vie à l'aide de le relation démontrée plus haut :

  (27)

DATATION AU CARBONE 14

Certains éléments radioactifs naturels constituent de véritables chronomètres pour remonter dans le temps. Des méthodes de datation ont été mises au point, fondées sur la décroissance progressive de la radioactivité contenue dans les objets ou vestiges étudiés. On peut ainsi remonter jusqu'à des dizaines de milliers d'années dans le passé avec le carbone 1, voire bien d'avantage avec d'autres méthodes telles que la thermoluminescence ou la méthode uranium-thorium. La datation au carbone 14 permet d'aborder l'étude de l'histoire de l'homme et de son environnement pendant la période de 5'000 à 50'000 ans à partir du temps présent.

Le carbone naturel est composé de deux isotopes stables: le  (98.892%) et  (1.108). Il n'existe donc pas de  dans le carbone naturel. Ce dernier est produit en haute atmosphère par l'action de neutrons cosmiques sur le . Nous parlons alord de "capture neutronique" (voir plus loin) ou "activation ". Ainsi, continûment du  est produit en haute atmosphère et se désintègre naturellement avec une période de 5'700 ans. Nous nous imaginons aisément  que la concentration en  s'équilibre lorsque le taux de production est égal au taux de disparition suite au processus de désintégration radioactif (sinon quoi il n'y aurait plus que du partout).

Il se forme environ 2.5 atomes de  par seconde et par  de surface Terrestre (ce chiffre est cependant dépendant de beaucoup de facteurs mais en amplitude négligeable sur le très long terme. Vous pouvez trouver des ouvrages entiers traitant du sujet), la contribution positive au nombre d'atome de  vaut:

  (28)

R étant le rayon de la Terre.

Ou encore en débit de masse cela représente:

  (29)

Le taux de disparition est égal au taux de production radioactif, c'est-à-dire:

 car   (30)

Comme le taux de disparition vaut:

  (31)

Nous en déduisons qu'il y a  atomes de  en permanence dans l'atmosphère, soit environ 77.8 tonnes.

Ce radio-isotope se retrouve sous la forme chimique  et pénètre par photosynthèse et métabolisme dans le règne végétal et animal. A la mort de la plante ou de l'animal, la teneur en  reste figée et commence à décroître par désintégration radioactive au cours des âges.

  (32)

La datation n'est donc qu'une simple comparaison entre la concentration en  de la matière vivante et de la matière morte. De fait, on détermine les activités spécifiques

  (33)

Les archélogues peuvent ainsi aisément dater ce qu'ils veulent.

FILIATION RADIOACTIVE

Définition: Une filiation radioactive est par définition la stabilisation d'un noyau appelé "noyau mère" en une succession de désintégrations. Chaque étape est caractérisée par un état intermédiaire correspondant à un radio-nucléide appelé "nucléide fille" de l'élément mère. Nous avons :

  (34)

où * désigne un isotope radioactif donné, l'isotope stable de la filiation radioactive de l'élément mère .

Exemple:

Considérons le problème à 2 corps  (nous ne nous intéresserons pas aux cas supérieurs excepté sur demande)

Supposons qu'à l'origine des temps, le premier descendant n'existe qu'en quantité négligeable:

Conditions Initiales (C.I.) à :

  (35)

La variation de l'élément mère (1) n'est donnée que par une contribution négative, la désintégration de 1. 

Nous avons:

  (36)

avec pour solution tenant compte des conditions initiales :

  (37)

La variation de l'élément descendant (2), c'est-à-dire la fille de 1, est donnée par un contribution positive (les atomes de 1 désintégrés) et une négative, la désintégration de 2. On a:

  (38)

il faut donc résoudre cette équation différentielle.

Nous avons comme solution homogène (équation caractéristique ECAR):

  (39)

Nous tirons la solution de l'équation homogène comme:

    (40)

avec la lettre h pour signifier qu'il s'agit de la solution homogène.

Déterminons maintenant la solution particulière de:

  (41)

La démarche consiste à poser que  avec la lettre p pour particulière.

En substituant nous trouvons :

  (42)

Car si nous avions  nous aurions une égalité nulle ce qui est absurde et nous avons dès lors: 

  (43)

d'où nous tirons que :

  (44)

Finalement la solution générale est la somme de la solution homogène et de la particulière, ainsi:

  (45)

Appliquons les conditions initiales: 

  (46)

Finalement nous avons :

  (47)

Nous laisserons le soin au lecteur de tracer les graphiques de:

 et   (48)

pour voir l'allure que cela à s'il en ressent le besoin.

étant nul pour  et pour , obligatoirement il passe, comme l'activité , par un maximum. Soit  le temps ou le maximum est observé, nous avons:

  (49)

d'où:

  (50)

La connaissance de  est importante en particulier en médecine nucléaire où nous désirons administrer le produit 1 à des fins radiodiagnostics et minimiser les effets néfastes du/des produit(s) fille(s) de 1. Nous choisissons alors des produits tel que le temps  soit supérieur au temps d'élimination biologique (voies d'élimination naturelle de l'organisme) de sa fille.

Nous ne traiterons pas ici de "l'équilibre séculaire" à part si il y a une de la part des lecteurs.

PHÉNOMÈNES RADIOACTIFS

Lorsque nous "pesons" un noyau, nous remarquons que sa masse est inférieur à la somme des masses de ses constituants. Cette différence est appelée le "défaut de masse" et est bien déterminé théoriquement (il ne s'agit plus d'une constatation expérimentale).

Le défaut de masse vaut:

  (51)

avec  étant la masse du noyau dans son état fondamental,  la masse du proton et  la masse du proton.

La masse d'un ensemble de nucléons liés est inférieure à la somme des masses des nucléons isolés (suffisamment éloignés en tout cas pour ne pas interagir). Nous tirons de la relativité restreinte que:

  (52)

 est l'énergie de liaisons des nucléons composant le noyau (>0).

 est donc positif pour tous les éléments. Si tel n'était pas le cas, les nucléons n'auraient aucune raison de se mettre ensembles afin de former les noyaux.

Soit  l'énergie moyenne par nucléon d'un atome donné. Nous avons :

  (53)

Remarquons que la masse du noyau est reliée à la masse de l'atome par:

  (54)

De même, la masse du noyau plus la masse de ses électrons isolés est supérieure à celle du noyau entouré de son cortège électronique. Notons que l'énergie de liaison électronique peut être souvent négligée à celle d'origine nucléaire.

Cette énergie dégagée lors de la fusion, c'est-à-dire lors de la constitution de l'atome à partir de ses constituants, s'appelle aussi "énergie de liaison" car c'est elle qu'il faut fournir si nous voulons, en sens inverse, séparer les éléments.

L'expression générale pratique de l'énergie moyenne exprimée en unités de masse atomique est:

  (55)

Les principes de production d'énergie nucléaire de la fission ou de la fusion résultent de la forme de l'énergie moyenne par nucléon en fonction de A.

Des phénomènes de radioactivité nous en distinguons 8 dont certains sont qualifiés de "secondaires" car n'étant que les effets secondaires possibles des 6 premiers. Certains de ces phénomènes sont provoqués par l'homme, d'autres sont naturels et certains inconnus.

Voici un diagramme représentant en-haut la "vallée de stabilité" des atomes et isotopes et en bas la même valée mais mettant en évidence le type de désintégration :


  
(56)

Voyons donc les types de désintégration ou modifications de la structure de l'atome/noyau qui sont possibles dans les détails :

FUSION NUCLÉAIRE (1)

Si nous assemblons deux noyaux légers  et   pour former un atome "lourd" , nous augmentons la défaut de masse puisque l'énergie moyenne par nucléons augmente. En effet:

- l'énergie de X vaut:

- l'énergie de Y vaut:

- l'énergie de Z vaut:

Comme  alors :

  (57)

La fusion nucléaire est quasi exclusivement provoquée par l'homme (sur Terre en tout cas...). La probabilité d'observer une fusion nucléaire naturelle dans des conditions normale de température de pression est tellement faible qu'il est inutile d'en parler.

FISSION NUCLÉAIRE (2)

De même, si nous cassons avec des moyens adéquats (souvent avec des neutrons car pour s'approcher du noyau et vaincre sa répulsion électrostatique c'est le moyen adéquat... c'est celui qu'utilisent les centrales nucléaires et les bombes nucléaires) un atome  lourd en deux atomes légers  et   nous augmentons aussi le défaut de masse et l'énergie gagnée vaut:

  (58)

Que ce soit dans le cas de la fission ou de la fusion, l'énergie dégagée se répartit alors en énergie cinétique des produits de fission, des neutrons émis et enfin des divers rayonnements.

Remarque: Un atome est dit "fissible" quand il faut des neutrons rapides pour produire la fission et "fissile" quand il suffit d'avoir des neutrons lents pour la fission (ce qui est plus rare).

L'énergie nucléaire est de loin une forme d'énergie beaucoup plus concentrée, puisque 1 kilogramme d'uranium naturel fournit une quantité de chaleur de 100'000 [kWh] dans une centrale électrique courante, alors que 1 kilogramme de charbon fournit en brûlant 8 [ kWh]. C'est pourquoi on ne manipule que d'assez faibles masses de combustible  nucléaire pour la production d'électricité: une centrale électronucléaire d'une puisse de 1000 [MW] électriques consomme par an 27 tonnes d'uranium enrichi, le quart de son chargement, alors qu'une centrale thermique de même puissance consomme par an 1'500'000 tonnes de pétrole. Pour comparaison dans le soleil, 1 kilogramme d'hydrogène produit, par réactions nucléaires le transformant en hélium, 180 millions de kWh! Mais attention, industriellement nous ne savons extraire qu'une faible part de l'énergie nucléaire emmagasinée dans la matière. Sur les 27 tonnes d'uranium enrichi consommé en une année par une centrale, seule une petite quantité de noyau a été réellement consommé (d'où la nécessité économique de retraiter l'uranium après utilisation).

Nous nous rendons vite compte que le pouvoir calorifique de la fission est gigantesque par rapport à celui des énergies fossiles. Une estimation donne un rapport d'énergie dégagée par atome de 50'000 millions !!!

Nous trouvons pour information en Suisse, rien que 5 centrales nucléaires (au début du 21ème sciècle) pour une population de 6 millions d'habitants (figure ci-dessous):


  
(59)

Dans le cas de la fission spontanée (ou naturelle) nous avons émission de deux produits de fission et de w neutrons

Notation: 

   (60)

Exemple:

)   (61)

DÉSINTEGRATION ALPHA (3)

Définition: Lorsqu'un noyau lourd contient trop de protons et de neutrons (comme l’Uranium 238 par exemple), il va vider son trop-plein de nucléons en émettant une particule alpha (noyau d’hélium composé de 2 protons et deux neutrons) et le système finale qui sera un nouveau noyau aura une masse plus faible et éventuellement stable. Ce mode de désintégration est la "radioactivité alpha".

La probabilité de désintégration est gouvernée par le mécanisme de barrière de pénétration (effet Tunnel) comme nous allons le démontrer un peu plus loin après la petite introduction.

La décroissance radioactive selon la radioactivité alpha, peut être schématisée comme:

 où     (62)

Exemple :

)   (63)

L'énergie dégagée lors de la transmutation se calcule au moyen du défaut de masse:

  (64)

avec étant la masse du noyau initial,  la masse du noyau final et  la masse du noyau d'Hélium.

en négligeant l'énergie de liaison des électrons nous avons :

 et  et   (65)

Finalement :

  (66)

Cette expression montre que l'énergie des particules  est bien définie pour des noyaux initiaux et finaux donnés. De fait, nous observons en réalité un spectre énergétique discret. Nous en concluons que ces émissions mènent le noyau à des niveaux d'énergie intermédiaires correspondantes à des états excités du noyau final. Nous pouvons expliquer ces observations par une structure nucléaire en couches. La désexcitation de se dernier se faisant par émission de photons .

La conservation de l'énergie impose que l'énergie de la désintégration  se répartit entre l'énergie cinétique des deux produits résiduels.

  (67)

La conservation de la quantité de mouvement nous donne:

  (68)

et donc:

  (69)

que nous remplacons dans l'équation de conservation de l'énergie:

  (70)

et on en tire que l'énergie de la particule  vaut:

  (71)

vu que les masses du noyau et de la particule  sont environ proportionnelles à leurs nombres de masse, soit A et 4 respectivement.

DÉSINTEGRATION BETA- (4)

Définition: Lorsqu'un noyau est instable à cause d'un trop plein de neutrons (comme le Carbone 14 par exemple) il n'émettra pas de neutrons. En revanche il aura la faculté de changer un de ses neutrons en un proton. Lors de cette transformation, pour conserver la charge électrique totale du système, un électron sera créé. Cette transformation est la "radioactivité bêta-" (- car l'électron à une charge négative dans cette désintégration).

La désintégration dite  est donc une caractéristique des noyaux ayant un excès de neutrons. Les isotopes concernés se rendent plus stables en transformant un neutron en un proton avec émission d'un électron  et d'un anti-neutrino. Nous avons alors pour le neutron concerné:

  (72)

Nous avons mis en suffixe droite le spin de la particule concernée et en indice droite le signe de charge de la particule. Ainsi, nous observons que le spin est une quantité conservée, ainsi que la charge.

Nous avons pour l'isotope concerné:

 (ex: )   (73)

L'énergie dégagée lors de la transmutation se calcule au moyen du défaut de masse:

  (74)

en négligeant l'énergie de liaison des électrons nous avons :

 et   (75)

Attention! le dans l'égalité de  est le même que celui que nous trouvons dans l'expression de  d'où le

On avons alors: 

  (76)

Chaque désintégration  pure est caractérisée par une énergie fixe de décroissance . Du fait que l'énergie cinétique du noyau est négligeable de par sa masse de très loin supérieure à celle du l'électron et de l'anti-neutrino réunis, l'énergie dégagée est partagée entre les énergies cinétique du  et de . La masse de l'anti-neutrino étant très loin inférieure à celle de l'électron, l'énergie cinétique de l'anti-neutrino peut donc être négligée. Ainsi, l'énergie du  n'est cependant pas fixe et peut avoir n'importe quelles valeurs entre 0 et . Nous observons donc un spectre d'énergie.

La forme des distributions observées permet de donner une valeur d'énergie moyenne aux  qui se situe autour de :

  (77)

L'existence de l'anti-neutrino a été postulée en 1933 par Wolfgang Pauli afin de satisfaire la conservation de spin. L'introduction d'une particule aussi étrange fut très controversée et mal acceptée (charge nulle, spin non nul, masse négligeable).

Indépendamment du neutrino d'électron (noté  habituellement) accompagnant les particules  et (ce dernier ayant plusieurs noms "positon", "positron", "électron positif") il existe un neutrino de méson  ou  appelés:  et  pour ne pas les confondre. Par la suite, n'étant pas confronté aux neutrinos de méson, nous noterons simplement  à la place de .

dÉsintegration b+ (5)

Définition: Lorsqu'un noyau est instable à cause d'un trop plein de protons il n'émettra pas de protons. En revanche, il aura la faculté de changer un de ses protons en neutron, soit par capture d'un électron, phénomène appelée "radioactivité par capture électronique", soit par émission d'un électron positif (positon) : c'est la "radioactivité bêta+"

Lors de la désintégration  un proton est dissocié en un neutron un électron positif (positon noté   et un neutrino). Nous écrivons cela:

  (78)

ou:

  (79)

L'énergie dégagée lors de la transmutation se calcule au moyen du défaut de masse:

  (80)

en négligeant l'énergie de liaison des électrons nous avons :

 et   (81)

Attention! le dans l'égalité de  est le même que celui que nous trouvons dans l'expression de  d'où le

Nous avons ainsi :

  (82)

La désintégration  ne peut donc avoir lieu que si , c'est-à-dire si:

  (83)

L'énergie massique de l'électron  est importante car c'est l'énergie d'un des deux photons résultant d'une annihilation d'un  avec un électron.

Comme pour la désintégration , l'énergie du  n'est pas fixe et peut avoir n'importe quelles valeurs entre 0 et . Nous observons donc un spectre d'énergie.

capture Électronique (6)

Lors de la capture électronique, un des protons du noyau se transforme en un neutron par capture d'un électron du cortège électronique (il s'agit donc d'une variante de la désintégration ), le plus souvent un électron de la couche K. Ce qui se note :

  (84)

L'énergie dégagée lors de la transmutation se calcule au moyen du défaut de masse:

  (85)

en supposant que l'énergie de liaison de l'électron K et celle de recul du noyau sont négligeables. C'est donc le neutrino d'électron qui emporte tout l'énergie.

En négligeant l'énergie de liaison des électrons nous avons :

 et   (86)

donc:

  (87)

La désintégration par capture électronique est en concurrence avec la désintégration  que si

  (88)

Dans le cas où 

  (89)

seule la désintégration par capture électronique est possible.

ÉMISSION GAMMA (7)

Pour le noyau, l'émission d'un rayonnement électromagnétique   est une possibilité de gagner et donc de stabilité supérieure. Cette émission suit généralement un phénomène de désintégration  ou de capture électronique. On peut donc s'imaginer que lors de tels types de désintégration, la topologie des nucléons dans le noyau n'est pas idéale et que le réarrangement de ces derniers s'accompagnera d'une diminution d'énergie; cette dernière émise sous forme d'un ou de plusieurs photons .

Nous avons donc un schéma:

  (90)

puis:

 (désintégration )   (91)

où le m signifie "métastable" ou "isomère".

Remarque: "Isomère" veut dire que le noyau est excité. Il se désexcitera avec une période . Généralement  est extrêmement petit et les photon(s) sont émis immédiatement après l'électron dans le cas de notre exemple d'une désintégration . Nous parlons alors d'état métastable ou isomère. Notons que ces radio-isotopes isomères sont particulièrement intéressants en imagerie médicale.

L'énergie du photon  vaut:

  (92)

Il est évident que dans cet exemple, nous avons considéré le cas le plus simple; soit la désexcitation de noyau  en une seule étape avec émission d'un seul photon  qui emporte toute l'énergie. De fait, selon le radio-isotope, cette désexcitation peut s'effectuer avec de plusieurs photons  en cascade.

CONVERSION INTERNE (8)

La conversion interne I.C. est un processus lié à l'émission d'un photon . En effet, il se peut que l'énergie soit transmise directement à un électron du cortège électronique, généralement de la couche K, que se trouve éjecté de l'atome. Cet électron est appelé "électron de conversion". La place laissée dans le cortège électronique est par la suite comblée par un électron des couches supérieures et ainsi de suite. On a donc, comme dans le cas d'un processus de désintégration de capture électronique, un réarrangement du cortège électronique caractérisé par l'émission de rayons-X caractéristique de l'élément Y.

L'énergie transmise vaut:

  (93)

avec étant l'énergie cinétique de l'électron émis, l'énergie du photon percutant l'électron, , l'énergie de liaison de l'électron considéré (K, L, M,…)

L'énergie du photon  est transmise directement à un électron qui est éjecté; le processus est suivi du réarrangement des électrons (s'ensuivra un émission de rayons X). L'électron éjecté est appelé "électron Auger".

Si nous représentons sur un graphique tous les isotopes avec en ordonnées leur nombre atomique et en abscisse leur nombre de neutron nous pouvons observer que les éléments stables existants dans la nature se trouvent tous dans la région nommée "vallée de stabilité". Les autres étant radioactifs. Nous pouvons remarquer que la ligne  est située presque partout en-dessus de la zone de stabilité.

Ces résultat ont été obtenus expérimentalement car il est encore aujourd'hui même avec les ordinateurs les plus puissants et ce en connaissant la théorie quantique, de simuler le comportement de noyaux ayant des nombres atomiques élevés.

L'émission d'un électron du cortège électronique appelé "électron Auger" est donc un processus similaire au processus de conversion interne (IC), mais le rayonnement électromagnétique ne provient pas d'une désexcitation du noyau (ce n'est pas un photon ) mais d'un rayon-X produit lors du réarrangement du nuage électronique. Dans un processus radioactif, ce réarrangement électronique peut provenir soit d'une capture électronique EC soit d'une conversion interne (IC).

L'électron Auger éjecté provient principalement d'une orbitale externe et son énergie est l'énergie caractéristique du rayon-X moins son énergie de liaison. L'énergie des électrons Auger est donc faible (quelques keV) par rapport à une particule  ou IC et sont souvent et sont souvent réabsorbés à l'intérieur de la source. Le processus d'émission d'un électron Auger est favorisé pour des éléments à faible numéro atomique à cause de leurs faibles énergies de liaison électronique.

Lors d'un réarrangement du nuage électronique tel que le passage d'un électron de la couche L à la couche , l'énergie du rayon-X émis vaudra . Cette différence d'énergie étant supérieur à l'énergie de liaison d'un autre électron se trouvant sur la couche , ce dernier sera alors émis avec l'énergie cinétique:

  (94)

A leurs tours, les 2 vacances laissées sur la couche L sont comblées par des électrons des couches supérieures. Fluorescence et électron Auger sont en compétition. Il se peut même que plusieurs électrons Auger soient émis lors de la désexcitation de l'atome. On parle alors de "cascade Auger" laissant l'atome considéré fortement ionisé, ce qui peut le conduire à l'explosion coulombienne de la molécule dont il fait partie.

RADIOPROTECTION

En physique nucléaire il est très important de connaître la façon dont les divers rayonnements alpha, gamma, rayons-X ou neutroniques interagissent avec la matière (en gros les rayonnements non chargés ou chargés). Cela permet de connaître la façon dont leur l'énergie cinétique se répartit ou se dissipe dans la matière qu'ils rencontrent sur leur chemin et de s'en protéger de façon adaptée.

Formule de Bethe-Bloch

Une particule chargée lourde ayant une énergie de un ou plusieurs MeV perd son énergie principalement par collisions avec les électrons des cortèges atomiques, électrons qui lui apparaissent comme quasi-libres. Le processus par lequel des électrons sont ainsi éjectés lors du passage d'une particule ionisante est appelé "ionisation primaire". Un électron pourra s'échapper s'il reçoit une énergie supérieure à son énergie de liaison.

Le transfert maximum d'énergie  qui peut se produire dans une collision non relativiste et élastique (où l'énergie du système est conservée car il n'y a par définition pas de dissipation de chaleur) est calculée simplement en utilisant le principe de conservation de la quantité de mouvement et l'énergie:

Soit et  les masses et vitesses respectives de la particule incidente et de l'électron. Nous supposerons que l'électron est immobile sur son orbite et que sa vitesse initiale est nulle . Après le choc, nous supposerons que la particule incidente aura transférée toute son énergie cinétique à l'électron et se trouvera à son tour au repos tel que

Posons les équations:

  (95)

La conservation de l'énergie nous permet d'écrire:

  (96)

d'où après regroupement et simplification:

 et   (97)

Ensuite, après division de la deuxième équation par la première on déduit l'expression des vitesses après le choc:

  (98)

relativement à nos hypothèses initiales nous avons donc :

  (99)

Manipulons un petit peu cette relation:

  (100)

Pour une particule lourde, avec , nous peuvons écrire:

  (101)

Une ionisation ne pourra se produire que si  est au moins égale au seuil d'ionisation de l'électron que l'on notera  et que l'on a vue comment calculer lors de l'étude du modèle de Bohr.

L'énergie de la particule incidente devra donc au minimum être égale à:

  (102)

Donc, lors de son passage à travers la matière, le corps chargé de charge et de vitesse  cède son énergie en de nombreuses collisions avec les électrons des atomes rencontrés. L'interaction est coulombienne et à chaque fois, une diffusion se produit. L'énergie de recul de l'électron, supposé libre, peut se calculer de manière précise. Pour faire une estimation de la perte d'énergie, nous ferons ici l'approximation que la quantité de mouvement transférée est égale au produit de la force d'interaction à la distance r multipliée par le temps nécessaire au projectile pour parcourir le trajet 2r. Nous avons la force F de coulomb donnée par:

  (103)

et la quantité de mouvement:

  (104)

L'énergie cinétique transférée à un électron de masse  sera:

  (105)

La perte d'énergie totale sera obtenue en intégrant sur tous les électrons rencontrés. A la distance comprise entre r et r + dr de la trajectoire et sur le parcours dx, se trouvent:

  (106)

électrons, où N est le nombre d'atomes de nombre atomique Z' par unité de volume. La perte d'énergie par unité de distance est donc:

  (107)

La valeur de est évaluée en remarquant que ce paramètre d'impact correspond au transfert d'énergie maximum. En utilisant les équations que nous avons démontré précédemment:

  (108)

Avec , on peut obtenir le paramètre par:

  (109)

et nous obtenons :

  (110)

Lorsque r devient très grand, le transfert d'énergie est plus petit que l'énergie moyenne d'ionisation notée des électrons et le processus n'est plus efficace. Nous devons donc avoir la relation suivante:

  (111)

Nous en tirons une valeur pour :

  (112)

En remplaçant les valeurs de  et des équations précédentes dans l'équation:

  (113)

nous obtenons :

  (114)

Un traitement quantique plus rigoureux montrerait qu'il faudrait supprimer la racine de l'argument du logarithme en prenant en compte les effets relativistes ainsi que les propriétés intrinsèques de l'électron (constante de structure fine). Nous obtiendrions alors la formule de Bethe-Bloch:

  (115)

 est quant à lui un terme de correction qui dépend de l'énergie et de lorsque nous tenons compte de la structure complète des noyaux (modèle en couche) de la matière.

Nous voyons finalement que la perte d'énergie linéique est proportionnelle au numéro atomique du rayonnement incident et de la matière pénétrée. Donc, des protections composées de matériaux à numéro atomique élevés (masse volumique élevée) auront un fort pouvoir de ralentissement et seront avantageux en radioprotection.

EFFET COMPTON

Au cours de l'effet Compton, le photon est diffusé inélastiquement sur un électron à qui il cède une partie de son énergie. L'électron est éjecté hors de l'atome. Cet effet a lieu indifférement sur les électrons de toutes les couches électroniques et aussi sur des électrons libres. L'énergie du photon et celle de l'électron dépendent de la direction d'émission de ces particules. Étant donné que cet effet dépend du nombre d'électrons disponibles par atome cible, la probabilité de diffusion Compton augment linéairement avec le nombre atomique Z de l'absorbant. Mais comme cet effet est en concurrence avec la production de paire électron – positron que nous verrons plus loin, l'effet Compton est surtout important aux énergies et aux numéros atomiques moyens.

Nous avons vu démontré en mécanique relativiste, la relation d'Einstein :

  (116)

et rappelons que nous avons ainsi pour la quantité de mouvement d'un photon :

  (117)

et nous y avons aussi démontré que la quantité de mouvement est donnée par :

  (118)

d'où la relation, dont nous allons faire usage plus loin :

  (119)

Avant l'interaction, photon-électron, nous avons (nous considérons grossièrement l'électron comme étant au repos) et après la collision . La conservation de l'énergie, nous amène donc à écrire :

  (120)

En ne considérant que les énergies cinétiques, nous avons en négligeant celle de l'électron avant le choc :

  (121)

Soit la figure ci-dessous :

 


  (122)

La conservation de la quantité de mouvement nous donne :

Selon l'axe x :

  (123)

 

Selon l'axe y :

  (124)

La somme de ces deux relations élevées au carré nous donne la quantité de mouvement totale :

  (125)

Puis en substituant :

  (126)

et comme :

  (127)

Lorsque l'énergie du photon est assez élevée, , celle du photon diffusé tend vers une limite donnée par (voir le règle de l'Hospital dans le chapitre de calcul différentiel et intégral):

  (128)

L'énergie acquise par l'électron Compton vaut finalement :

  (129)

Il est intéressant de remarquer que nous ne pouvons avoir . Effectivement cela supposerait que :

  (130)

et nous voyons bien que quelque soit , nous avons toujours .

La fréquence du photon diffusé est inférieure à celle du photon incident car son énergie est toujours plus faibles et dons sa longueur d'onde plus grande. Donc :

  (131)

et puisque :

  (132)

Nous avons :

  (133)

ce qui s'écrit aussi en utilisant la définition de la constante de Planck et les relations trigonométriques habituelles :

  (134)

Nous appelons la facteur la "longueur d'onde de Compton" et elle vaut :

  (135)

EFFET PHOTOÉLECTRIQUE

L'effet photoélectrique est l'éjection d'électrons (dits alors "photoélectrons") de la surface de divers métaux exposée à une énergie de rayonnement. Ce rayonnement peut provenir du réarrangement du noyau de l'atome aussi bien que d'un rayonnement externe.

Par ailleurs, Einstein proposa d'éprouver la validité de la théorique quantique de la lumière au moyen des mesures quantitatives de l'effet photoélectrique.

Exposons d'abord l'expérience mise en œuvre : l'émission d'électrons par un métal ne contredit pas la théorique électromagnétique de la lumière. Si nous considérons un faisceau uniforme, son énergie est uniformément répartie sur tout le front d'onde. Plus la lumière est intense, plus grandes sont les amplitudes des champs électrique et magnétique en chaque point du front d'onde et plus l'énergie transmise par l'onde en une seconde est grande. Ces champs exercent des forces sur les électrons dans la métal et peuvent même en arracher de sa surface.

Voici l'expérience mise en place :


  (136)

Si l'anode collective est à un potentiel positif relativement à la cathode émettrice, les photoélectrons parcourent le tubent et constituent le courant mesuré par l'ampèremètre. Nous observons alors une proportionnalité entre l'intensité du faisceau incident et le courant.

Cependant, au moins trois problèmes persistent entre le modèle théorique et l'observation expérimentale:

1. La notions ondulatoire de la lumière ne convient pas pour expliquer le temps nécessaire à l'absorption de l'énergie d'extraction.

Effectivement, supposons une lampe de 100 [W], rendement lumineux 15% placée à 0.5 [m] d'une plaque revêtue de potassium K d'énergie d'extraction minimal 2.25 [eV] en admettant un diamètre de pour l'atome de Potassium.

Nous avons alors :

  (137)

La puissance lumineuse absorbée par l'atome est alors :

  (138)

La durée nécessaire pour l'absorption est alors :

  (139)

Ce qui est en contradiction avec l'expérience où l'on observe que le phénomène est quasi-instantané (le temps à la lumière pour se propager jusqu'au métal)

2. Si nous inversons les bornes, les électrons émis par le métal sont repoussées par l'électrode négative, mais si la tension inverse est faible les plus rapides pourront quand même l'atteindre et il se produira un courant. A un potentiel négatif, spécifique pour chaque métal, appelé potentiel d'arrêt , tous les électrons émis sont repoussés et le courant est nul. L'énergie cinétique maximale de ces photoélectrons est alors :

  (140)

Or, nous trouvons expérimentalement que ce potentiel d'arrêt est indépendant de l'intensité du rayonnement. Dans la théorie ondulatoire, l'augmentation de l'intensité devrait augmenter le nombre d'électrons extraits (quelque soit leur niveau énergétique) et leur énergie cinétique maximale. Une plus grande intensité suppose une plus grande amplitude du champ électrique : . Ainsi, un champ électrique plus grand devrait éjecter les électrons à plus grande vitesse toutes couches confondues au fur à mesure que l'intensité augmente.

3. Lorsque nous varions la fréquence v de la lumière incidente et que nous mesurons , nous observons que l'effet photoélectrique n'a pas lieu si ( est appelé le seuil de fréquence) et ceci quelque soit l'intensité de la lumière. Ce qui est plutôt gênant… parce que dans la théorie ondulatoire, nous devons toujours pouvoir éjecter des électrons quelque soit la fréquence, il suffit d'augmenter l'intensité.

Chaque problème peut être résolu en adoptant la point de vue suivant :

1. Dans l'aspect ondulatoire, la source est vue comme se propageant comme un front d'onde sphérique dont la densité superficielle d'énergie décroît comme . Alors que pour expliquer l'observation expérimentale, il faut voir l'expérience d'un point de vue corpusculaire où le front est un front de corpuscules dont la densité superficielle de photons décroît en mais où l'énergie de chaque photon reste hv (selon la loi de Planck).

2. Si nous pensons en terme de photons, que nous augmentons l'intensité, nous augmentons le nombre de photons, mais l'énergie par photon , reste inchangée. Ainsi, que peut avoir chaque photon ne change pas. D'où le fait que le potentiel d'arrêt est indépendant de l'intensité du champ.

3. Si nous pensons en termes de photons à nouveau, les électrons dans la cible sont retenus par les forces d'attraction, l'extraction d'un électron de la surface requiert une énergie minimale qui dépend de chaque matériau ( est aussi appelé "travail d'extraction" qui est de l'ordre de quelques électronvolts). Si l'énergie du photon incident est supérieure à , un électron peut être arraché, par contre si elle est inférieure, aucun électron ne peut être arraché. L'apport d'énergie est égal à l'énergie cinétique de sortie de l'électron plus l'énergie requise pour l'extraire du métal, soit :

  (141)

Ainsi, si l'on augment la fréquence de la lumière, l'énergie cinétique maximale des électrons augmente linéairement. R.A. Millikan fit entre 1913-1914 des expériences rigoureuses dont les résultats corroborèrent parfait la théorie d'Einstein. Ce dernier reçut le prix Nobel en 1921 pour ses apports à la physique théorique, et surtout sa découverte de la loi de l'effet photoélectrique.

La lumière se propage d'un endroit à un autre comme si elle était une onde. Mais la lumière interagit avec la matière dans des processus d'absorption et d'émission comme si elle était un courant de particules. C'est ce que nous appelons la "dualité onde-corpuscule". Ainsi, celle-ci se trouvant dans les particules massives comme le suggère l'hypothèse de De Broglie que nous avons vue en physique quantique ondulatoire, se retrouve finalement également pour la lumière

 


  (142)

Un photon d'énergie incidente qui interagit avec un électron d'un atome cible peut éjecter cet électron de son orbite en lui communiquant une énergie cinétique :

  (143)

est l'énergie de liaison de l'électron éjecté sur son orbite (cette relation est indiquée sous la forme dans la figure ci-dessus).

Si l'énergie du photon incident est inférieure à l'énergie de liaison de l'électron K (voir chapitre de physique quantique corpusculaire), l'effet photoélectrique se fait avec un électron de la couche L, etc...

Dans le cas ou le rayonnement est absorbé, l'atome est dit "excité", car son état d'énergie n'est pas l'état minimal. Il s'ensuit donc une "relaxation" (ou "désexcitation") : un électron d'une couche supérieure vient combler la case quantique laissée vacante par l'électron éjecté.

Si l'énergie de transition est modérée (c'est-à-dire si le rayonnement incident avait une énergie modérée), la relaxation provoque l'émission d'un photon de faible énergie (visible ou ultra-violet), c'est le phénomène de fluorescence. Si l'énergie de transition est élevée, on peut avoir deux cas :


  (144)

1. Il y a émission d'un photon fluorescent, qui du fait de son énergie, est un photon X, nous parlons alors de "fluorescence X"

2. Ce photon X peut être recapturé par l'atome lui-même et provoquer l'éjection d'un électron périphérique, c'est "l'émission Auger" dont nous avons déjà parlé plus haut.

Pour résumer, nous avons vu jusqu'ici :

  (145)

DIFFUSION DE RUTHERFORD

Considérons la diffusion qu'une particule chargée subit quand elle est soumise à une force électrostatique répulsive inversement proportionnelle au carré de la distance entre la particule mobile et un point fixe ou centre de force. Ce problème est particulièrement intéressant en raison de son application à la physique atomique et nucléaire. Par exemple, quand un proton, accéléré par une machine telle qu'un cyclotron, passe près d'un noyau de la matière de la cible, il est dévié sous l'action d'une force de ce type, provenant de la répulsion électrostatique du noyau (c'est la raison pour laquelle nous parlons aussi de diffusion coulombienne).


  (146)

Soit O un centre de force et A une particule lancée contre O d'une grande distance avec la vitesse (voir figure ci-dessus). Nous choisirons l'axe des X passant par O et parallèle à . La distance b, appelée "paramètre de choc", est la distance l'axe X des abscisses et le point A. En supposant que la force entre A et O est répulsive et centrale, la particule suivra AMB. La forme de la courbe dépend de la manière dont la force varie avec la distance. Si la force est inversement proportionnelle au carré de la distance, c'est-à-dire si :

  (147)

la trajectoire est une hyperbole. Avec bien évidemment (cf. chapitre d'électrostatique):

  (148)

Quand la particule est en A son moment cinétique est . Dans une position quelconque telle que M, son moment cinétique, est (voir chapitre de mécanique classique) aussi donné par . Comme le moment cinétique doit rester constant puisque la force est centrale :

  (149)

L'équation du mouvement dans la direction OY est obtenue en combinant l'équation par :

  (150)

En éliminant à l'aide de l'avant dernière équation nous pouvons écrire :

  (151)

Pour trouver la déviation de la particule, nous devons intégrer cette équation depuis l'une des extrémités de la trajectoire jusqu'à l'autre. En A la valeur de est nulle car le mouvement initial est parallèle à l'axe des X et nous avons aussi . En nous avons et . Remarquons qu'en B la vitesse est de nouveau car, par symétrie, la vitesse perdue quant la particule s'approche de O doit être regagnée quand elle s'en éloigne. Alors :

  (152)

Ce qui donne :

  (153)

Rappelons (cf. chapitre de trigonométrie) que :

  (154)

Ce qui nous donne :

  (155)

Soit de manière plus détaillée :

  (156)

Cette relation donne l'angle de déviation en fonction du paramètre de choc b.

Ce qui nous donne aussi :

Bien évidemment, dans les cas scolaires on pose souvent Q=q ce qui simplifie un peu la lourdeur de la relation mais on perd en généralisation.

Cette équation est appliquée à l'analyse de la déviation de particule chargées par les noyaux. Remarquons que ce résultant n'est valable que pour une force inversement proportionnelle au carré de la distance. Si la force dépend de la distance selon une autre loi, l'angle de déviation satisfait à une autre équation. Les expériences de déviation sont donc très utiles quant nous voulons déterminer la loi de force dans les interactions entre particules.


  
(157)

Dans les laboratoires de physique nucléaire, on fait des expériences de diffusion en accélérant des électrons, des protons ou d'autres particules au moyen d'un cyclotron, d'un accélérateur de Van de Graaf ou de quelque autre dispositif semblable, et en observant la distribution angulaire des particules déviées.

Il est clair qu'une particule incidente dans une surface défini par un rayon compris entre b et b + db sera respectivement compris dans l'angle solide de diffusion :

  (158)

avec (cf. chapitre de trigonométrie) .


  
(159)

La "section efficace" étant définie par :

  (160)

En combinant cette relation avec :

,   (161)

Nous avons donc pour la section (différentielle) efficace de Rutherford (ou de Coulomb) :

  (162)

A l'aide de la diffusion de Rutherford/Coulomb, Rutherford a pu déterminer une approximation de la taille du noyau de l'atome comme nous l'avons fait remarque au début du chapitre de physique corpusculaire. Le raisonnement appliqué est le suivant pour déterminer une borne inférieure du rayon du noyau :

L'énergie totale d'un système en rotation est l'énergie cinétique de translation sommé à l'énergie cinétique de rotation, sommé à l'énergie potentielle. Ce qui nous donne :

  (163)

en notant L le moment cinétique donné par nous avons :

  (164)

d'où :

  (165)

Il en résulte donc :

  (166)

D'où l'angle associé à deux distance radiales est donné par :

  (167)

La figure ci-dessous montre un processus de collision par un potentiel centre U(r). La particule incidente possède une vitesse initiale :

en avec et   (168)

par symétrie à nouveau.


  
(169)

L'angle est l'angle de déflexion lorsque la particule incidente approche le diffuseur à la distance minimum .

Revenons-en à nos équations où le moment cinétique est lié au paramètre d'impact par la relation ou encore :

  (170)

Nous pouvons donc écrire après simplifications :

  (171)

où nous avons posé (l'énergie de rotation et du potentiel considérés comme négligeables par rapport par rapport à l'énergie cinétique) et

  (172)

La distance minimale d'approche est donc déterminée par la plus grand zéro du dénominateur :

  (173)

c'est-à-dire (trivial) :

  (174)

Nous avons donc :

  (175)

Comme nous le voyons dans cette dernière relation, la particule incidente subira une collision frontale lorsque . Dès lors, la valeur de l'approche maximale est :

  (176)

L’expérience de Rutherford permit d’estimer la taille du noyau atomique. En effet, les particules a qui ont rebondi sur le noyau avec un angle de diffusion de 180° (nous parlons alors de "rétrodiffusion"), sont celles qui se sont approchées le plus près de ce dernier. Puisque nous avons :

  (177)

avec une énergie cinétique initiale de 7.7 [MeV], Rutherford trouva pour le rayon de l’atome d’or (Z=79) avec des particules alpha (Z=2) une valeur de :

  (178)

RAYONS-X ET GAMMA

La différence fondamentale de ce type de rayonnement, par rapport aux , est qu'il n'est pas porteur de charge électrique et n'a donc pas d'interaction coulombienne avec le cortège électronique du milieu traversé. Par conséquent, le photon suit un chemin rectiligne sans perte d'énergie jusqu'à ce qu'il rencontre sur sa trace une particule (électron, noyau) où il va faire une interaction modifiant profondéement son état.

Le rayonnement gamma est une radiation électromagnétique de haute énergie produite par un phénomène nucléaire, alors que les rayons X sont des radiations électromagnétiques de haute énergie produites lors de phénomènes atomiques ou moléculaires. Le photon est la particule élémentaire qui est associée à ces ondes électromagnétiques. Les photons gamma et X sont donc de même nature mais d'origines différentes, ils ont donc des propriétés identiques qui dépendent de leur énergie.

Rappelons que :

  (179)

En traversant la matière un photon peut interagir avec :

- Un des électrons de l'atome rencontré

- Le noyau de l'atome

- Le champ électrique des particules atomiques chargées

- Le champ mésique des nucléons (interaction forte)

Le résultat de l'interaction peut être schématisé comme :

- le photon est dévié en conservant son énergie, il y a alors "diffusion totale" de l'énergie et le processus est dit "cohérent" (élastique)

- le photon est dévié et son énergie diminuée, il y a alors "diffusion partielle" de l'énergie, l'autre partie est absorbée par la matière, les processus est dit alors "incohérent" (inélastique)

- le photon disparaît, il y a "absorption (totale)" de son énergie par la matière.

Nous pouvons démontrer que les caractéristique macroscopiques de ces interactions dans le cadre d'un faisceau fin et collimaté conduisent à une loi exponentielle d'atténuation du rayonnement photonique dans la matière. Cela signifiant que pour les photons il n'y a pas de parcours fini (!) comme pour les particules chargées; on ne pour jamais assurer qu'à une distance donnée tout les photons d'un faisceau aient subi une interaction.

Le nombre de particules interagissant avec la matière dépend évidemment de l'intensité I et du type de matière traversée (caractérisée par le "coefficient d'atténuation linéique" ) et de son épaisseur x.

Nous avons :

  (180)

le signe "-" étant là pour mettre en évidence un diminution. Nous résolvons facilement cette équation différentielle (c'est simplement la loi de Beer-Lambert que nous avons déjà vu en optique géométrique) :

  (181)

avec l'intentisté initiale ou "débit de fluence" et le coefficient d'atténuation linéique qui tient compte de toutes les effets d'atténuation possible.

Remarque: Souvent dans les tables, nous trouvons le coefficient d'atténuation massique exprimé en . Nous avons alors :

  (182)

Dans le cas d'un absorbant contenant plusieurs éléments chimiques homogènement distribués, le coefficient d'atténuation vaut :

ou   (183)

est le coefficient d'absorption de l'absorbant, le coefficient d'absorption de l'élément i, la masse volumique de l'absorbant, la masse volumique de l'élément i, étant la fraction massique de l'élément i dans l'absorbant.

Faisons maintenant un approche microscopique : soit une faisceau de frappant perpendiculairement la surface d'un matériau d'épaisseur dx et de densité atomique . Si nous considérons les particules frappant la surface A, ces dernières peuvent théoriquement rencontrer atomes cibles dans cette couche. Le nombre de particules interagissant sera proportionnel à l'intensité fois ce nombre et nous aurons :

  (184)

est la constante de proportionnalité, appelée "section efficace microscopique". Ces unités sont souvent exprimées en "barn" ().

Remarques:

R1. La densité atomique N est égale à es la densité en de la cible, le nombre d'Avogadro () et M est la masse molaire de la cible exprimée en .

R2. Si nous admettons que les centres de diffusion sont les électrons et non pas les atomes cibles, alors il faut remplacer N par .

D'où nous obtenons :

  (185)

En identifiant l'aspect macro et microscopique, nous voyons que joue le même rôle que et que nous trouvons que la section efficace peut s'écrire comme :

  (186)

et dans l'hypothèse où l'électron constitue une "sphère d'action" présentant une surface frontale , étant le rayon de la sphère d'action alors :

  (187)

et nous avons :

  (188)

Par définition,, nous appelons coude de demi-atténuation CDA l'épaisseur du matériau le débit de fluence I d'un facteur deux. Ainsi :

  (189)

En radiprotection, nous utilisons parfois la notion de couche d'atténuation aux dixième TVL (Tenth Value Layer) donneé par :

  (190)

Nous faisons usage parfois aussi de la "longueur de relaxation", qui représente l'épaisseur à partir de laquelle l'intensité d'un faisceau monoénergétique est diminuée d'un facteur , et qui est donc donnée par :

  (191)

Cette valeur est beaucoup plus utile que les autres car c'est aussi la distance moyenne à laquelle a lieu la première collisions du photon.

Remarque: L'irradiation gamma est anectodiquement utilisée dans le cadre de la conservation du patrimoine des objets organiques. Effectivement, lors de la découverte des archélogues d'oeuvres ou vestiges anciens, ces derniers sont attaqués par des micro-organismes qui vont détruire ces objets avec le temps. Le rayonnement gamma va permettre, sans détruire les objets, de tuer par irradiation gamma tous ces micro-organismes. L'exemple le plus connu étant l'irradiation de la momie de Touthankamon pendant 10 heures dans les laboratoires du CEA.

Les causes microscopiques connues de l'atténuation d'un faisceau de photons (neutre au point de vue coulombien) qui méritent notre attention dans la détermination de leur section efficace dans le domaine d'énergie des photons gamma ou rayons X sont au nombre de sept :

- Diffusion cohérente de Thomson

- Diffusion cohérente de Rayleigh

- Diffusion cohérente de Delbruck

- Diffusion cohérente de Compton (déjà vu partiellement plus haut)

- Absorption photoélectrique (déjà partiellement vu plus haut)

- Réaction photonucléaire

- Création de paire d'électron-positrons (déjà partiellement vu plus haut)

Bien que nous pussions à ce jour parler de ces effets, il nous est impossible dans l'état actuel du site de présenter le formalisme mathématique permettant de déterminer la section efficace de chacune des ces diffusions.

CRÉATION PAIRES ÉLECTRON-POSITRON

Au cours de la création de paires, le photon absorbé dans le champ électrique du noyau peut générer une paire électron-positron . Pour que l'interaction puisse avoir lieu, il faut que l'énergie du photon soit supérieure à (1.02 [MeV]), soit l'énergie au repos de la paire électron-positron.

Cet effet est important pour les hautes énergies et les numéros atomiques élevés. Le positron créé est freiné dans la matière tout comme un électron et, en fin de parcours, il s'annihile avec un électron pour donner lieu à deux photons de 0.511 [MeV] (photons d'annihilation) émis presque à 180° (tout la quantité de mouvement est transformée en énergie d'où la valeur de l'angle, ainsi la quantité de mouvement finale est nulle).

La création de paire coûte évidemment au moins l'énergie de masse de l'électron et du positron, soit . Le solde d'énergie se répartit ensuite dans l'énergie cinétique des deux particules :

  (192)

La nécessité de satisfaire simultanément aux conditions de conservation de l'énergie masse et de la quantité de mouvement d'autre part imposent à l'effet de matérialisation d'avoir lieu au voisinage d'une particule matérielle qui participe au phénomène. En effet, dans le vide, les deux conditions sont contradictoires ! La quantité de mouvement de chaque électron vaut :

  (193)

est l'énergie totale de chacun des électrons, c'est-à-dire :

  (194)

Le photon d'origine à :

et   (195)

que nous introduisons dans l'équation de conservation de l'énergie et avec l'aide la relation donnant de nous avons :

  (196)

ce qui montre bien que par le terme que le noyau doit emporter une partie de la quantité de mouvement puisque :

  (197)

 
  nombre de visiteurs venus 726228 visiteurs (2522980 hits) Ici!

Tracked by Histats.com
Recherche personnalisée
$value) { if ($param == 'client') { google_append_url($google_ad_url, $param, 'ca-mb-' . $GLOBALS['google'][$param]); } else if (strpos($param, 'color_') === 0) { google_append_color($google_ad_url, $param); } else if ((strpos($param, 'host') === 0) || (strpos($param, 'url') === 0)) { google_append_url($google_ad_url, $param, $google_scheme . $GLOBALS['google'][$param]); } else { google_append_globals($google_ad_url, $param); } } google_append_url($google_ad_url, 'dt', round(1000 * array_sum(explode(' ', microtime())))); return $google_ad_url; } $google_ad_handle = @fopen(google_get_ad_url(), 'r'); if ($google_ad_handle) { while (!feof($google_ad_handle)) { echo fread($google_ad_handle, 8192); } fclose($google_ad_handle); } ?>
 
 
Ce site web a été créé gratuitement avec Ma-page.fr. Tu veux aussi ton propre site web ?
S'inscrire gratuitement