L'encyclopédie des Sciences
  Algébre Lineaire
 

Il y a plusieurs manières d'aborder l'algèbre linéaire. D'abord une manière pragmatique (nous commencerons par celle-ci car notre expérience nous a montré que c'est celle qui semblait le mieux marcher chez les étudiants) et une manière plus formelle que nous présenterons aussi après la première.

Ainsi, rappellons que nous avions étudié dans le chapitre de calcul algébrique comment déterminer l'intersection (si elle existe) de l'équation de deux droites (nous pouvons étendre le problème bien évidemment à plus de deux droites) dans données par :

 et   (1)

.

En cherchant donc la valeur de  pour laquelle :

  (2)

Ainsi nous pouvions écrire :

  (3)

Cependant, il existe une autre manière de présenter le problème comme nous l'avons vu en méthodes numériques (section d'informatique théorique). Effectivement, nous pouvons écrire le problème sous la forme d'un bloc d'équations :

  (4)

et comme nous cherchons , nous avons :

  (5)

Cette écriture s'appelle comme nous l'avons présenté dans le chapitre d'algorithmique (section analyse numérique) un "système linéaire" que nous pouvons résoudre par en soustrayant ou en addition les lignes entre elles (l'ensemble des solutions étant toujours égal), ce qui nous donne :

  (6)

et nous voyons que nous retombons sur la solution :

  (7)

il y donc deux manière de présenter un problème d'intersection de droites :

1. Sous forme d'équation

2. Sous forme de système

Nous allons nous intéresser dans une partie ce chapitre à la deuxième méthode qui nous permettre à l'aide des outils vus dans le chapitre de calcul vectoriel de résoudre les intersection non plus d'une ou plusieurs droites mais d'une ou plusieurs droits, plans, hyperplans dans respectivement .

Il y a cependant une condition à remplir : comme nous l'avons vu dans l'exemple précédent, nous ne pourrions pas résoudre un système d'équations à deux inconnues si nous n'avons qu'une seule équation. C'est la raison pour laquelle il faut et il suffit pour un système d'équation à n inconnues avoir au moins n équations. Ainsi, nous parlons de : "systèmes de n équations à n inconnues" et comme nous le verrons plus loin, ceci implique trivialement d'avoir une matrice carrée (le concept de "matrice" sera défini un peu plus loin). Nous démontrerons aussi que pour un tel système ait des solutions non toutes nulles, il faut que nous ayons un déterminant de la matrice qui soit non nul (le concept de "déterminant" sera défini plus loin) et donc que la matrice soit inversible.

SYSTÈMES LINÉAIRES

Définition: Nous appelons donc "système linéaire", ou simplement système, toute famille d'équations de la forme :

  (8)

où chaque ligne représente l'équation d'une droite, plan ou hyperplan (cf. chapitre de Géométrie Analytique) et  les "coefficients du système",  les "coefficients du second membre" et les  les "inconnues du système".

Si les coefficients du second membre sont tous nuls, nous disons que le système est "homogène". Nous appelons "système homogène associé au système", ce même système que nous obtenons en substituant des zéros au coefficient du second membre.

Rappelons les éléement suivants :

- L'équation d'une droite (cf. chapitre d'Analyse Fonctionnelle) est donnée par :

  (9)

en posant .

- L'équation d'un plan  (cf. chapitre de Géométrie Analytique) est donnée par :

  (10)

en posant .

- L'équation d'un hyperplan est très facilement (si vous ne voyez pas comment faites le nous savoir nous le préciseront) généralisable à partir de la démonstration de celle du plan et nous obtenons ainsi :

  (11)

en posant

Nous écrivons souvent un système linéaire sous la forme condensée suivante :

  (12)

Nous appelons "solution du système" tout n-uplet  tel que :

  (13)

Résoudre un système signifie trouver l'ensemble des solutions de ce système. Deux systèmes à n inconnues sont dits "systèmes équivalents" si toute solution de l'un est solution de l'autre, autrement dit, s'ils admettent le même ensemble de solutions. Nous disons parfois que les équations d'un système sont des "équations compatibles" ou "équations incompatibles", suivant que ce système admet au moins une solution ou n'en admet aucune.

Nous pouvons également donner bien sûr une interprétation géométrique à ces systèmes. Supposons que les premiers membres des équations du système soient non nuls. Alors, nous savons que chacune de ces équations représente un hyperplan d'un espace affine (voir le chapitre de calcul vectoriel) de dimension n. Par conséquent, l'ensemble des solutions du système, regardé comme ensemble de n-uplets de coordonnées, représente une intersection finie d'hyperplans.

Remarque: Pour la méthode de résolution "classique" de ces systèmes, nous renvoyons le lecteur au chapitre traitant des méthodes numériques dans la section d'informatique.

C'était donc la manière pragmatique de voir les choses... passons maintenant à la seconde façon un peu plus ... mathématique (mais qui reste très simple) :

TRANSFORMATIONS LINÉAIRES

Définition: Une "transformation linéaire" ou "application linéaire" A est une application d'un espace vectoriel E vers un espace vectoriel F telle que avec K étant ou :

  (14)

plus fréquemment donné sous la forme (car l'application linéaire est souvent assimilée à une matrice):

  (15)

ceci constitue, pour rappel, un endomorphisme (cf. chapitre de Théorie Des Ensembles).

La première propriété spécifie que la transformée d'une somme de vecteurs doit être égale à la somme des transformées, pour qu'elle soit linéaire. La deuxième propriété précise que la transformée d'un vecteur auquel nous avons appliqué un facteur d'échelle (homothétie) doit aussi être égale à ce facteur appliqué sur la transformée du vecteur original. Si l'une ou l'autre de ces deux propriétés n'est pas respectée, la transformation n'est alors pas linéaire.

Nous allons maintenant montrer que toute transformation linéaire peut être représentée par une matrice. Soient les vecteurs de base pour E et ceux de F. Avec ces bases, nous pouvons représenter n'importe quels vecteurs avec les combinaisons linéaires suivantes (cf. chapitre de Calcul Vectoriel) :

  (16)

Soit la transformation linéaire A qui applique E sur F (). Donc que nous pouvons réécrire de la façon suivante :

  (17)

mais puisque A est un opérateur linéaire par définition, nous pouvons aussi écrire :

  (18)

En considérant maintenant que les vecteurs sont des éléments de F, nous pouvons les réécrire en tant qu'une combinaison linéaire de ses vecteurs de base :

  (19)

Ainsi, nous obtenons :

  (20)

En inversant l'ordre des sommations, nous pouvons écrire :

  (21)

et en réarrangeant cette dernière relation, nous produisons le résultat :

  (22)

Finalement, en se rappelant que les vecteurs de base doivent être indépendants, nous pouvons conclure que leurs coefficients doivent forcément être nuls, donc :

  (23)

Ce qui correspond au produit de "matrice" :

  (24)

que nous pouvons noter .

Autrement dit, toute transformation linéaire peut être décrite par une matrice A qu'il s'agit de multiplier avec le vecteur que nous voulons transformer, pour obtenir le vecteur résultant de la transformation.

MATRICES

Nous appelons donc "matrice" à m et lignes et n colonnes, ou "matrice de type mn" (le premier terme correspond toujours aux lignes et le second aux colonnes, pour s'en souvenir il existe un bon moyen mnémotechnique : le président LinColn – abréviation de Ligne et Colonne…), tout tableau de nombres :

  (25)

Nous désignons souvent une matrice de type plus brièvement par :

  (26)

ou simplement par .

Le nombre  est appelé "terme ou coefficients d'indices i, j". L'indice i étant appelé "indice de ligne" et l'indice j "indice de colonne".

Nous notons l'ensemble des matrices dont les coefficients prennent leurs valeurs dans K (pouvant être ou par exemple).

Lorsque , nous disons que  est une "matrice carrée" d'ordre n. Dans ce cas, les termes  sont appelées "termes diagonaux".

Nous appelons également une matrice à une seule ligne "matrice-ligne" et une matrice à une seule colonne "matrice-colonne". Il est claire qu'une matrice colonne n'est rient d'autre qu'un "vecteur-colonne". Par la suite, les lignes d'une matrice seront assimilées à des matrices-lignes et les colonnes à des matrices-colonnes.

L'intérêt de la notion de matrice apparaître tout au long des textes qui vont suivre mais la raison d'être immédiate de cette notion est simplement de permettre à certaines familles finies de nombres d'être conçues sous la forme d'un tableau rectangulaire.

Nous assignerons aux matrices des symboles propres, à savoir les lettre latines majuscules : A,B,... et aux matrices-colonnes des symboles à savoir les lettres minuscules vectorielles ; nous les appellerons d'ailleurs indifféremment matrices-colonnes ou vecteurs-colonnes.

Nous appelons "matrice nulle", et nous la notons O, toute matrice dont chaque terme est nul. Les matrices-colonnes sont également désignées par le symbole vectoriel : .

Nous appelons "matrice unité d'ordre n" ou "matrice identité d'ordre n", et nous notons , ou simplement I, la matrice carrée d'ordre n :

  (27)

Nous verrons plus loin que la matrice nulle joue le rôle d'élément neutre de l'addition matricielle et la matrice unité d'élément neutre de la multiplication matricielle.

Attention! Lorsque nous travaillons avec les matrices à coefficients complexes il faut toujours utiliser le terme "matrice identité" plutôté que "matrice unitaire" car dans le domaine des nombres complexes la matrice unitaire est un autre objet mathématique qu'il convient de ne pas confondre!

Nous allons maintenant revenir brièvement sur la définition de "rang d'une famille finie" que nous avons vu en calcul vectoriel.

Rappel : Nous appelons "rang" d'une famille de vecteurs la dimension du sous-espace vectoriel de qu'elle engendre.

Ainsi, soit  les colonnes d'une matrice A, nous appelons "rang de A", et nous notons , le rang de la famille .

Dans un langage un peu plus familier (…) le rang d'une matrice est donné par le nombre de matrice-colonnes qui ne peuvent s'exprimer par la combinaison et la multiplication par un scalaire d'autres matrices-colonnes de la même matrice.

Remarque: S'il a y des difficultés à déterminer le rang d'une matrice il existe un technique "d'échelonnage" des matrices que nous allons voir plus tard qui permet d'effectuer ce travail très rapidement.

Définition: Nous appelons "matrice associée au système" :

  (28)

l'être mathématique défini par :

  (29)

c'est-à-dire la matrice A dont les termes sont les coefficients du système. Nous appelons "matrice du second membre du système linéaire", ou simplement "second membre du système", la matrice-colonne  dont les termes sont les coefficients du second membre de ce système. Nous appelons également "matrice augmentée associée au système" la matrice obtenue de A en ajoutant comme -ième colonne.

Si nous considérons maintenant un système de matrice associée A et de second membre . Désignons toujours par  les colonnes de A. Le système s'écrit alors de manière équivalente sous la forme d'une équation vectorielle linéaire :

  (30)

Maintenons rappelons un théorème que nous avons vu en calcul vectoriel : pour que le rang d'une famille de vecteurs  soit égal au rang de la famille augmentée , il faut et il suffit que le vecteur  soit combinaison linéaire des vecteurs .

Il s'ensuit que notre système linéaire sous forme vectorielle admet au moins une solution  si le rang de la famille  est égal au rang de la famille augmentée  et cette solution est unique si et seulement si le rang de la famille  est n.

Ainsi, pour qu'un système linéaire de matrice associée A et de second membre  admette au moins une solution, il faut et il suffit que le rang de A soit égal au rang de la matrice augmentée . Si cette condition est remplie, le système admet une seule solution si et seulement le rand de A est égal au nombre d'inconnues autrement dit, les colonnes de A sont linéairement indépendantes.

Nous disons qu'une matrice est "échelonnée" si ses lignes satisfont aux deux conditions suivantes :

C1. Tout ligne nulle n'est suivie que de lignes nulles

C2. L'indice de colonne du premier terme non nul de toute linge non nulle est supérieur à l'indice de colonne du premier terme non nul de la linge qui la précède.

Une matrice échelonnée non nulle est donc de la forme :

  (31)

 et  sont des termes non nuls. Bien entendu, les lignes nulles terminales peuvent manquer.

Remarque: Nous supposerons relativementévident que les matrices nulles et les matrices unités sont échelonnées.

Les colonnes d'indice  d'une matrice échelonnée sont clairement linéairement indépendantes. Envisagées comme des vecteurs-colonnes de , elles forment donc une base de cet espace vectoriel. En considérant les autres colonnes également comme des vecteurs-colonnes de , nous en déduisons qu'elles sont nécessairement combinaison linéaire de celles d'indice  et donc que le rang de la matrice échelonnée est r.

Nous noterons que r est aussi le nombre de lignes non nulles la matrice échelonnée et également le rang de la famille des lignes de cette matrice, puisque les lignes non nulles sont dès lors manifestement indépendantes.

Nous pouvons dès lors nous autoriser un certain nombre d'opérations élémentaires (supplémentaires) sur les lignes des matrices qui nous seront fort utiles et ce, sans changer son rang :

P1. Nous pouvons permuter les lignes.

Remarque: La matrice est juste une représentation graphique esthétique d'un système linéaire. Ainsi, permuter deux lignes ne change aucunement le système.

P2. Multiplier une ligne par un scalaire non nul

Remarque: Cela ne changeant en rien l'indépendance linéaire des vecteurs-lignes.

P3. Additionner à une ligne, un multiple d'une autre

Remarque: La ligne additionnée disparaîtra au profit de la nouvelle qui est indépendante de toutes les (anciennes) autres. Le système reste ainsi linéairement indépendant.

Toute matrice peut être transformée en matrice échelonnée par une suite finie d'opérations de type P1, P2, P3. C'est cette technique que nous utilisons dans le chapitre traitant des algorithmes pour résoudre les systèmes linéaires.

Il est donc évident que les opérations élémentaires sur les lignes d'une matrice ne modifient pas le rang de la famille des lignes de cette matrice. Or, nous avons observé que le rang de la famille des lignes d'une matrice échelonnée est égal au rang de la famille des colonnes, c'est-à-dire au rang de cette matrice. Nous en concluons que le rang de n'importe quelle matrice de type est également le rang de la famille des lignes de cette matrice.

Comme corollaire de cette conclusion, il apparaît que :

  (32)

Lors de la résolution de système linéaires de m équations à n inconnues il apparaît, comme nous l'avons déjà fait remarquer tout au début de ce chapitre, qu'il doit y avoir au moins un nombre égal d'équations ou d'inconnues ou plus rigoureusement : le nombre d'inconnues doit être inférieur ou égal aux nombre d'équations tel que :

  (33)

OPÉRATIONS SUR LES MATRICES

Rappelons que nous avons vu lors de notre étude du calcul vectoriel que les opérations de multiplication d'un vecteur par un scalaire, d'addition ou soustraction de vecteurs entre eux et l'opération de produit scalaire formait dans le sens ensembliste du terme un "espace vectoriel" (voir le chapitre de théorie des ensembles) possédant ainsi aussi une "structure algébrique vectorielle". Ceci sous la condition que les vecteurs aient bien sûr les mêmes dimensions (ce constat n'étant pas valable si au lieu du produit scalaire nous prenions le produit vectoriel).

Au même titre que les vecteurs, nous pouvons multiplier une matrice par un scalaire et additionner celles-ci entre elles (tant qu'elles ont les mêmes dimensions…) mais en plus, nous pouvons aussi multiplier deux matrices entre elles sous certaines conditions que nous définirons ci-après. Cela fera également de l'ensemble des matrices dans le sens ensembliste du terme, un espace vectoriel sur le corps K et possédant ainsi aussi une "structure algébrique vectorielle".

Ainsi, un vecteur pourra aussi être vu comme une matrice particulière de dimension et s'opérer dans l'espace vectoriel des matrices. En gros…, le calcul vectoriel n'est qu'un cas particulier de l'algèbre linéaire.

Définitions:

D1. Soient . Nous appelons somme de A et B la matrice dont les coefficients sont :

  (34)

D2. Soient une matrice et un scalaire. Nous appelons produit de A par la matrice dont les coefficients sont :

  (35)

De ses deux définitions nous pouvons donc effectivement conclure que l'espace/ensemble des matrices est bien un espace vectoriel et possède ainsi une structure algébrique vectorielle.

D3. Soient E, F, G trois espaces vectoriels de bases respective et deux application linéaires (voir théorie des ensembles aussi pour un rappel). Soient A la matrice de f relativement aux base et B la matrice de g relativement aux bases . Alors la matrice de (voir la définition d'une fonction composée dans le chapitre d'analyse fonctionnelle) relativement aux bases est égale au produit de B par A noté BA.

et   (36)

et   (37)

Donc soient et , nous appelons produit matriciel de B par A et nous notons BA, la matrice dont les coefficients sont :

  (38)

En notant par des lettres latines majuscules les matrices et par les lettres grecques minuscules les scalaires, le lecteur vérifiera aisément (nous pouvons rajouter les démonstrationS sur demande) les relations :

  (39)

Remarque: L'ensemble des matrices carrées d'ordre n à coefficients dans muni de la sommet et le multiplication usuelles des matrices forme un anneau (voir chapitre de théorie des ensembles). C'est vrai plus généralement si les coefficients des matrices sont pris dans un anneau quelconque : par exemple l'ensemble des matrices à coefficients entiers est un anneau.

TYPE DE MATRICES

Afin de simplifier les notations et la longueur des calculs nous allons introduire ici les matrcies types que le lecteur pourra recontrer tout au long de sa lecture du site (et pas que dans la partie de mathématiques pures!).

Définitions:

D1. Soit A une matrice carrée (c'est-à-dire ). La matrice A est dite "matrice inversible" ou "matrice régulière" si et seulement si est telle que :

  (40)

où :

  (41)

si tel n'est pas le cas, nous disons que A est une "matrice singulière".

Cette définition est fondamentale, elle a des conséquences extrêmement importantes dans tout l'algèbre linéaire et aussi dans la physique (résolution de système linéaires, déterminant, vecteurs et valeurs propres, etc.) il convient donc de s'en souvenir.

D2. Soit :

  (42)

une matrice de . Nous appelons "matrice transposée" de A, la matricée notée (le T en exposant est selon les ouvrages en majuscule ou en minuscule), de définie par (nous mettons les lignes en colonnes et les colonnes en lignes) :

  (43)

Voici quelques propriétés intéressantes (nous seront par ailleurs utiles plus tard lors d'un théorème fameux!) de la transposée:

  (44)

et aussi une propriété importante de la matrice transposée (la vérification se fait aussi par l'exemple) :

  (45)

La matrice transposée est très important en physique et en mathématique dans le cadre de la théorie des groupes et symétries! Il convient donc aussi de se souvenir de sa définition.

D3. Soit :

  (46)

une matrice de . Nous appelons "matrice adjointe" de A, la matricée, de définie par :

  (47)

qui est donc la complexe conjuguée de la matrice transposée ou si vous préférez... la transposée de la matrice conjuguée A (dans le cas de coefficient réels... on se passera de la conjuguer... lol). Pour simplifer les écritures nous la notons simplement (écriture fréquente en physique quantique et algèbre ensembliste).

Remarques:

R1. Nous appelons "comatrice" de la matrice A, la transposée de son adjointe (et nous pouvons continuer ainsi longtemps...)

R2. Relation triviale (qui sera souvent utilisée en physique quantique des champs) : 

  (48)

D4. Par définition, une matrice est dite "matrice hermitique" ou "matrice hermitienne" ou "matrice self-adjointe" ou encore "matrice autoadjointe"... si elle est égale à son adjointe (matrice transposée conjuguée) tel que :

  (49)

D5. Soit A une matrice carrée de , la "trace" de A, notée est définie par :

  (50)

Quelques relations utiles y relatives (dont nous pouvons rajouter les démonstration détaillées sur demande) :

  (51)

D6. Une matrice A est dite "matrice nilpotent" si en la multipliant successivement par elle-même elle peut donner zéro. En clair, s'il existe un entier tel que :

  (52)

Remarque: Pour se souvenir de se mot, nous le décomposons en "nil" pour nulle et "potent" pour potentiel. Ainsi, quelque chose de nilpotent est donc quelque chose qui est potentiellement nul.

D7. Une matrice A est dite "matrice orthogonale" si ses éléments sont réels et si elle obéit à :

  (53)

ce qui se traduit par (où est le symbole de Kronecker) :

  (54)

Les vecteurs colonnes de la matrice sont donc normés à l'unité et orthogonaux entre eux.

Remarques:

R1. C'est typiquement le cas de la matrice de la base canonique, ou de toute matrice diagonalisable.

R2. Si au lieu de prendre simplement une matrice avec des coefficients réels, nous prenons une matrice à coefficients complexes avec sa transposée complexe (matrice adjointe). Alors, nous disons que A est une "matrice unitaire" si elle satisfait à la relation ci-dessus!

Nous reviendrons plus tard, après avoir présenté les concepts de vecteurs et valeurs propres, sur un cas particulier et très important de matrices orthogonales (appelées "matrices de translations").

Signalons encore une autre propriété importante en géométrie, physique et statistiques des matrices orthogonales.

Soit , où A est une matrice orthogonale et . Alors f (respectivement A) est une isométrie. C'est-à-dire que .

Démonstration:

  (55)

et donc nous avons bien :

  (56)

Donc en d'autres termes : Les matrices orthogonales sont des application linéaires qui conservent la norme (les distances).

C.Q.F.D.

D8. Soit une matrice carrée. La matrice A est dite "matrice symétrique" si et seulement si :

  (57)

Nous retrouverons cette définition en calcul tensoriel.

D9. Soit une matrice carrée. La matrice A est dite "matrice anti-symétrique" si et seulement si :

  (58)

ce qui impose que ,

Nous retrouverons cette définition aussi en calcul tensoriel.

D10. Soit Soit une matrice carrée. La matrice A est dite "matrice triangulaire supérieure" si et seulement si :

  (59)

D11. Soit Soit une matrice carrée. La matrice A est dite "matrice triangulaire inférieure" si et seulement si :

  (60)

D12. Soit , une matrice carrée. La matrice D est dite "matrice diagonale" si et seulement si :

  (61)

La notation habituelle d'une matrice diagonale D étant :

  (62)

D13. Soient E un espace vectoriel, de dimension n et deux bases deux bases de E :

  (63)

Définition: Nous appelons "matrice de passage" de la base à la base , et nous noterons P la matrice de dont les colonnes sont formées des composantes des vecteurs de sur la base .

Nous considérons le vecteur de E qui s'écrit dans les bases et suivant les relations :

  (64)

Soit :

  (65)

le vecteur de formé des composantes de dans la base et respectivement le vecteur formé des composantes de dans la base . Alors :

  (66)

Remarques:

R1. Si lorsqu'un vecteur est donné et que sa base n'est pas spécifiée, c'est qu'il s'agit dès lors implicitement de la base canonique :

  (67)

qui laisse invariant la multiplication par un vecteur quelconque et lorsque la base utilisée est notée et n'est pas spécifiée, c'est qu'il s'agit également de la base canonique.

R2. Si un vecteur est donnée par rapport à la base canonique, ces composantes sont dites "covariantes", dans le cas contraire, où si elles sont exprimées après suite dans une autre base non canonique, alors nous disons que les composantes sont "contravariantes" (pour plus de précisions sur le sujet voir le chapitre de calcul tensoriel).

DÉTERMINANTS

Nous allons nous intéresser aux déterminants dans le point de vue du physicien (celui de mathématicien étant assez rébarbatif...). Fréquemment, en physique, que ce soit en mécanique ou physique quantique des champs, nous aurons fréquemment des systèmes linéaires à résoudre. Or, nous avons vu maintenant qu'un système linéaire :

  (68)

peut être écrit sous la forme :

  (69)

et nous savons que les seuls systèmes linéaires résolubles sont ceux qui ont autant d'équations que d'inconnues. Ainsi, la matrice doit être une matrice carrée .

Si une solution existe, il existe alors une matrice-colonne (ou "vecteur") tel que ce qui implique :

  (70)

Qu'impose cette relation ? Eh bien c'est simple mais à la fois très important : pour qu'un système linéaire ait une solution, il faut que le la matrice A soit inversible ! Quel rapport avec le déterminant alors ? C'est simple : les mathématiciens ont cherché comment s'écrivaient les inverses des matrices de systèmes linéaires dont ils savaient qu'ils y avait une solution et ils sont arrivés après tâtonnements à déterminer une sorte de formule qui permette de vérifier si la matrice est inversible ou non. Une fois cette formule trouvée, ils ont formalisé (comme ils savent si bien le faire…), avec un très bonne rigueur, le concept entourant cette formule qu'ils ont appelé "détérminant". Ils y sont tellement bien arrivés d'ailleurs qu'on oublie parfois qu'ils ont procédé ainsi….

Remarque: Si une matrice d'un système linéaire n'est pas inversible, cela a pour conséquence qu'il existe soit aucune solution, soit une infinité de solutions (comme à l'habitude quoi…)

Nous allons ci-dessous d'abord nous intéresser à la manière de construire le déterminant en définissant un type d'application particulière. Ensuite, après avoir vu un exemple simple et interprétable du calcul d'un déterminant, nous nous attacherons à déterminer la formule de celui-ci dans le cas général. Enfin, une fois ceci fait, nous verrons qu'elle est la relation qui lie l'inverse d'une matrice et le déterminant.

Dans ce qui suit tous les espaces vectoriels considérés sont de dimension finie et sur le corps des nombres complexes (ceux qui le préfèrent pourront prendre comme corps de base, de fait nous pourrions prendre un corps quelconque).

D'abord nous allons faire un petit peu de mathématique (un peu rébarbative) avant de passer à du concret.

Soit un espace vectoriel, nous écrirons au lieu de . désignera la base canonique de . est l'ensemble des matrices carrées à coefficients dans .

Définitions:

D1. Une "application multilinéaire" sur un espace V est par définition une application qui est linéaire en chacune de ces composantes. C'est-à-dire :

  (71)

pour tout et où les sont des vecteurs.

Remarque: Une application multilinéaire non nulle n'est pas une application linéaire de l'espace dans . Sauf si . Effectivement, cela se vérifie de par la définition de l'application linéaire versus celle de l'application multilinéaire :

  (72)

D2. Une "application multilinéaire alternée" sur V est par définition une application multilinéaire qui vérifie la condition suivante:

  (73)

pour tout . Ainsi la permutation de deux vecteurs qui se suivent change le signe de .

Ainsi, si est une application multilinéaire, alors est alternée si et seulement si . nous avons :

  (74)

Démonstration: étant définie comme alternée, nous avons donc :

  (75)

C.Q.F.D.

et voilà ce qui nous intéresse :

D3. Un "déterminant" est par définition (par imposition) une application multilinéaire alternée vérifiant de plus :

  (76)

Remarque: Les colonnes d'une matrice carrée forment vecteurs et nous voyons donc qu'un déterminant D sur induit une application de (où est l'espace des matrices carrées à coefficients dans ) définie par est la i-ème colonne de M. Par la suite, nous ferons l'abus d'écriture qui consiste à confondre D et .

Etudions le cas . Si D est un déterminant, pour tout vecteurs :

  (77)

nous avons :

  (78)

Comme D est multilinéaire, nous avons :

  (79)

et comme elle est surtout multilinéaire alternée, nous avons donc :

  (80)

En fait, nous venons de montrer que si un déterminant existe, il est unique et de la forme indiquée ci-dessus, il faudrait encore vérifier que l'application ainsi définie satisfait les propriétés d'un déterminant, mais ce dernier point est immédiat.

Ainsi, si est une matrice nous avons donc :

  (81)

Nous retrouvons donc la forme du déterminant tel que nous en avons fait mention en calcul vectoriel.

Donnons une interprétation géométrique du déterminant. Soit deux vecteurs de .


  
(82)

Le vecteur est obtenu en projetant sur et nous avons donc :

et   (83)

L'aire du parallélogramme ci-dessus est donc :

  (84)

Si alors :

  (85)

et donc :

  (86)

Ainsi le déterminant représente au signe près l'aire du parallélogramme défini par les vecteurs n quelconque, en particulier, pour , le déterminant de trois vecteurs linéairement indépendants représente le volume du parallélépipède défini par ces derniers. lorsque ceux-ci sont linéairement indépendants. Nous pouvons généraliser ce résultat à une dimension

Le cas plus général de l'expression du déterminant est un peu plus délicate à établir. Il faut pour cela que nous définissions une application bijective particulière mais simple que nous avions déjà rencontrée dans la chapitre de probabilités et statistiques.

Définition: Soit nous appelons "permutation" de toute application bijective de dans :

  (87)

Soit l'ensemble des permutations (applications bijectives) possibles de . éléments. La donnée d'un élément de est définie par les données successives de : contient bien évidemment… (voir la combinatoire dans le chapitre de probabilités)

  (88)

Etant donnée une suite d'éléments ordonnées (croissants) d'éléments , nous appelons "inversion", toute permutation d'éléments dans la suite ordonnée (donc la suite ne sera plus ordonnée du tout…). Nous notons le nombre d'inversions.

Nous disons que la permutation est pair (impair) si est pair (impair). Nous appelons "signature" de , le nombre noté défini par , c'est-à-dire :

  (89)

Nous avons maintenant les outils en place nécessaire à définir de manière générale la formule du déterminant :

Définition: Soit . Nous appelons "déterminant de A", et nous notons , le scalaire K défini par (nous verrons un exemple plus loin) :

  (90)

Exemples:

E1. Soit , considérons les permutations des seconds indices (des entiers ) pris dans leur ensemble :

  (91)

Nous calculons les signatures de . Voici le schéma de cette règle (rappel : nous disons donc… qu'il y a "inversion", si dans une permutation, un entier supérieur précède un entier inférieur) :

Nombre d'inversions

0

1

Permutation

Paire

Impaire

+1

-1

  (92)

Donc nous avons :

  (93)

Ce qui correspond bien à ce que nous avions vu initialement.

E2. Soit , considérons les permutations des seconds indices (des entiers ) pris dans leur ensemble :

  (94)

Nous calculons les signatures de . Voici le schéma de cette règle (rappel : nous disons donc… qu'il y a "inversion", si dans une permutation, un entier supérieur précède un entier inférieur) :

 

123

132

213

231

312

321

Nombre d'inversions

0

1

1

2

2

3

Permutation

Paire

Impaire

Impaire

Paire

Paire

Impaire

+1

-1

-1

+1

+1

-1

  (95)

Donc nous avons :

  (96)

Remarque: Certaines personnes apprennent par coeur une méthode nommée "règle de Sarrus" pour calculer les déterminants d'ordre trois comme le précédent. Nous lui préférerons sur ce site la formulation générale du déterminant applicable à tous les ordres.

Voyons quelques propriétés et corollaires de cette formulation du déterminant :

P1. Soit une matrice carrée d'ordre , nous ne changeons pas la valeur du déterminant de en :

1. Effectuant une opération élémentaire sur les colonnes de

2. Effectuant une opération élémentaire sur les lignes de

Démonstration: Si alors est composée de n vecteurs colonnes :

  (97)

Effectuer une opération élémentaire sur les colonnes de revient à addition à une des colonnes de . Soit la matrice obtenue en additionnant à la j-ème colonne de , nous avons :

  (98)

Par multilinéarité (finalement la démonstration n'est vraiment pas bien dure) :

  (99)

et comme le déterminant est alterné :

  (100)

Pour ce qui est des opération élémentaires sur les lignes il suffit de considérer la transposée (c'est à pleurer tellement c'est simple mais il fallait y penser).

C.Q.F.D.

P2. Soit une matrice carrée d'ordre n et soit :

  (101)

Démonstration: Comme précédemment, il suffit de remarquer que si sont les vecteurs colonnes constituant la matrice alors sont ceux qui constituent et :

  (102)

L'application étant n-linéaire, nous aboutissons à l'égalité :

  (103)

C.Q.F.D.

P3. Soit une matrice carrée d'ordre n. Nous changeons le signe du déterminant de si :

1. Nous permutons deux de ces colonnes

2. Nous permutons deux de ces lignes

Démonstration: est constituée des n vecteurs . Le déterminant de est égal au déterminant de ces n. Permuter deux colonnes de revient à permuter les deux vecteurs correspondant. Supposons que les vecteurs permutés soit le i-ème et le j-ème, l'application déterminant étant alternée, nous avons :

  (104)

Pour ce qui est des lignes, il suffit de considérer les transposée de .

C.Q.F.D.

P4. Soit alors :

  (105)

La démonstration peut se faire de deux manières, la première est assez indigeste et abstraite nous la laisserons aux mathématiciens (…) même si elle a l'avantage d'être générale, la seconde plus simple, consiste à vérifier cette assertions pour différentes matrices carrées.

Démonstration:


  
(106)

Les calculs donnent donc des résultant qui sont bien identiques. Nous pouvons vérifier ainsi pour des matrices carrées de dimensions supérieures.

C.Q.F.D.

P5. Une matrice carrée est inversible si et seulement si .

Démonstration:

Si A est inversible, nous avons :

  (107)

C.Q.F.D.

Il s'agit de la propriété la plus importante des matrices dans le cadre de la physique théorique car si A est un système linéaire, le calcul de son déterminant permet de savoir si celui-ci a des solutions uniques. Dans le cas contraire, comme nous en avons déjà fait mention, soit le système a aucune solution, soit une infinité !

Il faut considérer aussi un car particulier important. Soit le système suivant :

  (108)

et à déterminer. Il est clair…, que A soit inversible ou non, la solution triviale est . Cependant…, imaginons une cas de physique théorique où nous avons mais pour lequel nous savons que et pour lequel nous imposons . Dans ce cas, ils nous faut éliminer la solution triviale . De plus, calculer l'inverse (s'il existe) de la matrice A ne nous ramènera à rien de concret mis à part à ce qui bien évidemment ne nous satisfait pas. La seule solution est alors de se débrouiller pour que les coefficient de la matrice A soient tels que sont déterminant soit nul et donc la matrice non inversible ! L'intérêt ? Eh, bien d'avoir une infinité de solutions possibles (de B donc !) qui satisfont . Nous aurons besoin de cette méthodologie en mécanique quantique ondulatoire, lorsque nous déterminerons l'existence des anti-particules par l'intermédiaire de l'équation de Dirac linéarisée. Il faudra donc s'en rappeler.

P6. Deux matrices "conjuguées" (attention, pas dans le sens complexe du terme) ont le même déterminant.

Démonstration:

Soit , et une matrice de passage d'une base à une autre (voir plus loin le traitement des changements de bases), nous avons alors :

  (109)

C.Q.F.D.

P7. Pour toute matrice :

  (110)

Démonstration:

  (111)

Or (trivial... simple multiplication de tous les coefficients) :

  (112)

Puisque (trivial) et que (cf. chapitre sur les Nombres), nous pouvons alors écrire :

  (113)

C.Q.F.D.

P8. Pour toute matrice :

  (114)

Démonstration:

Ben… c'est la même chose que pour la propriété précédente mais sans les valeurs conjuguées… De fait, nous montrons de la même manière, la même propriété pour .

C.Q.F.D.

P6. Soit une matrice , nous noterons la matrice obtenue à partir de en effaçant la i-ème ligne et la j-ème colonne. appartient donc à . Alors pour tout :

  (115)

est appelé "cofacteur"

Démonstration:

Définissons pour cela l'application :

  (116)

Il est facile de voir que est multilinéaire (il suffit de considérer comme une simple constante et ensuite par extension de la définition du déterminant… trop facile…).

Montrons cependant qu'elle est alternée (dans ce cas, c'est un déterminant qui a toutes les propriétés d'un déterminant) :

Soit deux vecteurs colonne de qui se suivent. Supposons que , il faut montrer que dans ce cas (qui découle de la définition d'une application alternée).

Nous avons premièrement (c'est obligatoire de par la définition) si nous n'effaçons aucune des colonnes étant ou :

si   (117)

et nous avons bien évidemment si nous enlevons l :

  (118)

Donc :

  (119)

C'est donc OK. Elle est alternée et multilinéaire, il s'agit donc bien d'un déterminant.

Nous venons donc de montrer que est un déterminant et par unicité nous a pour tout .

C.Q.F.D.

Voyons un exemple de cette méthode en calculant le déterminant de :

  (120)

Développons selon la deuxième ligne . Nous obtenons :

  (121)

Développons selon la première colonne en guise de vérification (on ne sait jamais…) :

  (122)

Définition: Soit m,n deux entiers positifs quelconques et A une matrice à coefficients dans . Pour tout entier un "mineur d'ordre k" de A est un déterminant du type:

avec   (123)

Pour finir nous terminons en donnant une formule qui relie les coefficients de l'inverse d'une matrice avec ces mineurs d'ordre .

DÉRIVÉE D'UN DÉTERMINANT

Voyons maintenant un résultat qui nous sera fort utile en relativité générale.

Soit une matrice carrée avec des fonctions dérivables. Posons . Nous voulons calculer . Soit le i-ème vecteur colonne de la matrice G. Utilisons la formule :

  (124)

Sachant que la dérivée de est (dérivée de n produits) :

  (125)

nous avons donc :

  (126)

Si nous regardons la première somme ci-dessus, nous remarquons que:

  (127)

est la dérivée du vecteur . De même pour les sommes suivantes. Ainsi,

  (128)

Développons encore. Considérons le terme ci-dessus. Si nous le développons par rapport à la première colonne, nous obtenons :

  (129)

De même, en développant le j-ème terme de la somme ci-dessus par rapport à la j-ème colonne nous avons :

  (130)

Si nous posons :

  (131)

nous obtenons :

  (132)

ce qui en notation tensorielle (cf. chapitre de Calcul Tensoriel) s'écrit :

  (133)

Nous avons aussi :

  (134)

est le coefficient se trouvant à la j-ème ligne, i-ème colonne de la matrice . Si nous notons le coefficient i, j de la matrice alors :

et   (135)

L'expression de la dérivée devient finalement :

  (136)

qui s'écrit en notation tensorielle :

  (137)

Ce résultat, finalement assez simple, nous sera utile en calcul tensoriel, pour construire les outils nécessaires à l'étude de la relativité générale et à la détermination de l'équation d'Einstein des champs. Il convient donc de s'en rappeler.

CHANGEMENTS DE BASES

Supposons que nous passions d'une base d'un espace à une autre base de ce même espace.

Décomposons les dans la base :

  (138)

Définition: Nous appelons "matrice de transition" ou "matrice de passage", la matrice (l'application linéaire) qui permet de passer de donnée par :

  (139)

Maintenant, considérons le vecteur donné par. Alors nous nous proposons de démontrer que les composants de dans la base sont données par :

ou   (140)


Remarque: La matrice P est inversible, car ses colonnes sont linéairement indépendantes (ce sont les vecteurs décomposés dans la base et les sont linéairement indépendants car ils forment une base).

Démonstration:

Prenons pour simplifier le cas (la démonstration étant très facilement généralisable) avec et .

Nous avons alors :

  (141)

Nous avons donc et nous cherchons à exprimer dans la base tel que . Nous allons chercher l'application linéaire qui relie ces deux relations telles que :

  (142)

d'où :

  (143)

c'est-à-dire :

  (144)

C.Q.F.D.

Considérons maintenant une application linéaire. Soit A sa matrice dans la base , et B sa matrice dans la base . Alors nous avons :

  (145)

Démonstration:

Soit et nous avons donc une fonction qui nous amène à écrire :

  (146)

D'autre part, nous avons (ce que nous avons démontré tout à l'heure) :

  (147)

Dès lors :

  (148)

d'où :

  (149)

et comme nous l'avons vu dans notre étude du déterminant, les déterminants de A, B sont égaux et donc invariants.

C.Q.F.D.

VALEURS ET VECTEURS PROPRES

Définition: Une "valeur propre" est par définition (nous retrouverons cette définition dans l'introduction à l'algèbre quantique dans le cadre du chapitre de physique quantique ondulatoire) une valeur K tel que soit une matrice carrée nous avons : appartenant à un corps

  (150)

et réciproquement qu'un vecteur est un "vecteur propre" si et seulement si :

  (151)

L'avantage majeur de ces concepts sera la possibilité d'étudier une application linéaire, ou tout autre objet lié à une représentation matricielle, dans une représentation simple grâce à un changement de base sur laquelle la restriction de A est une simple homothétie.

En d'autres termes: lorsqu'une transformation (application d'une matrice) agit sur un vecteur, elle modifie la direction de ce vecteur excepté pour certaines matrices particulières qui ont des valeurs propres!

Ainsi, l'ensemble des valeurs propres d'une matrice est appelé "spectre de A" et satisfait au système homogène :

  (152)

 ou (peu importe cela revient au même!) :

  (153)

(aussi notée ) est une matrice diagonale unitaire (et donc aussi carrée) de dimension n . Ce système nous le savons (démontré plus haut) admet des solutions non triviales, donc  ou , si et seulement si (nous verrons de nombreux exemples en physique) :

  (154)

Le déterminant est donc un polynôme en de degré n et peut donc avoir aux maximum n solutions/valeur propres comme nous l'avons démontré lors de notre étude des polynômes (cf. chapitre de Calcul Algébrique) et est appelé "polynôme caractéristique" de A et l'équation "équation caractéristique de A" ou "équations aux valeurs propres".

Si nous regardons  comme une application linéaire f, puisque ce sont les solutions non triviales qui nous intéressent, nous pouvons alors dire que les valeurs propres sont les éléments  tel que et que le Kernel constitue l'espace propre de A de la valeur propre  dont les éléments non nuls sont les vecteurs propres!

En mathématiques, le concept de vecteur propre est une notion algébrique s'applique donc à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon lesquels l'application se comporte comme une dilatation, multipliant les vecteurs par une même constante. Ce rapport de dilatation/homothétie est donc la valeur propre, les vecteurs auxquels il s'applique vecteurs propres, réunis en un "espace propre".

Une autre manière de voir la chose :

- Un vecteur est dit "vecteur propre" par une application linéaire s'il est non nul et si l'application ne fait que modifier sa taille sans changer sa direction.

- Une "valeur propre" associée à un "vecteur propre" est le facteur de modification de taille, c'est à dire le nombre par lequel il faut multiplier le vecteur pour obtenir son image. Ce facteur peut être négatif (renversement du sens du vecteur) ou nul (vecteur transformé en un vecteur de longueur nulle).

- Un "espace propre" associé à une "valeur propre" est l'ensemble des vecteurs propres qui ont une même valeur propre et le vecteur nul. Ils subissent tous la multiplication par le même facteur.

Remarque: En mécanique, on étudie les fréquences propres et les modes propres des systèmes oscillants (cf. chapitre de Mécanique Ondulatoire). En analyse fonctionnelle, une fonction propre est un vecteur propre pour un opérateur linéaire, c'est-à-dire une application linéaire agissant sur un espace de fonctions cf. chapitre d'Analyse Fonctionnelle). En géométrie ou en optique, on parle de directions propres pour rendre compte de la courbure des surfaces (cf. chapitre de Géométrie Non- Euclidiennes). En théorie des graphes, une valeur propre est simplement une valeur propre de la matrice d'adjacence du graphe (cf. chapitre de Théorie Des Graphes).

Terminons en donnant une relation qui relie les coefficients de l'inverse d'une matrice avec ces mineurs d'ordre (nous allons utiliser cette relation un peu plus loin) :

Soit une matrice inversible. Notons et . Alors :

  (155)

Démonstration:

Notons le k-ème vecteur colonne de la matrice A. Sachant que , nous avons a (trivial) :

  (156)

Calculons . D'une part en développant par rapport à la k-ème colonne nous trouvons (puisque qu'un seul des coefficients de est non nul et que l'unique non nul est égal à l'unité) :

  (157)

D'autre part (propriétés du déterminant) :

  (158)

Ainsi :

  (159)

c'est-à-dire :

  (160)

C.Q.F.D.

MATRICES DE ROTATION

Maintenant que nous avons vu ce qu'était une valeur et un vecteur propre, revenons sur un type particulier de matrices orthogonales qui nous seront particulièrement utiles dans notre étude des quaternions (cf. chapitre sur les Nombres), des groupes et symétries (cf. chapitre d'Algèbre Ensembliste) et de la physique des particules (cf. chapitre de Physique des Particules Elémentaires).

Nous notons, selon ce qui a été vu dans le chapitre d'Algèbre Ensembliste, O(n) l'ensemble des matrices à coefficients dans orthogonales, c'est-à-dire vérifiant :

  (161)

que nous notons aussi pour rappel :

  (162)

Les colonnes et les lignes d'une matrice orthogonale forment des bases orthonormées de pour le produit scalaire habituel.

Le déterminant d'une matrice orthogonale vaut , en effet entraîne :

  (163)

Nous notons SO(n) l'ensemble des matrices orthogonales de déterminant 1. Montrons en trois points que si alors A est la matrice d'une rotation par rapport à un axe passant par l'origine.

1. Toute valeur propre d'une matrice de rotation A (réelle ou complexe) est de module 1. En d'autres termes, la rotation conserve la norme :

En effet, si est une valeur propre de vecteur propre , nous avons :

  (164)

ou en notant le produit scalaire avec la notation habituelle du site :

  (165)

donc .

2. Il existe une droite dans l'espace qui sert d'axe de rotation et tout vecteur sur cette droite ne subit aucune rotation :

Notons un vecteur propre normé de valeur propre 1 (c.à.d un vecteur tel que ). Comme le lecteur l'aura peut-être compris (lire jusqu'au bout!), la droite engendrée par que l'on notera constitue notre axe de rotation.

En effet, tout vecteur sur est envoyé sur lui-même par A. Dans ce cas l'espace orthogonal noté qui est de dimension deux est le plan perpendiculaire à l'axe de rotation.

3. Tout vecteur perpendiculaire à l'axe de rotation reste, après une rotation, perpendiculaire à cet axe. En d'autres termes, est invariant par A

En effet, si alors, et pour tout :

  (166)

c'est-à-dire . Donc est invariant par A.

En fin de compte, la restriction de A à l'espace est une rotation.

Exemple :

Soit (voir le chapitre sur les nombres où la rotation par les complexes est démontré) une valeur propre (dont le module est de 1 comme nous l'avons vu lors de notre étude des nombres complexes) de A restreinte à .

Notons un vecteur propre avec de sorte que :

  (167)

avec (comme nous l'avons déjà montré dans notre étude des nombres complexes) :

  (168)

où nous savons de par notre étude des nombres complexes, que les vecteurs forment une base orthogonale (pas nécessairement normée!) de .

Remarque: Il est par ailleurs aisé de vérifier que cette matrice est orthogonale (si ce n'est pas le cas contactez-nous et ce sera détaillé!).

théorème spectral

Voyons maintenant un théorème très important relativement aux valeurs et vecteurs propres qui se nomme le "théorème spectral" qui nous sera très utile à nouveau en physique et en statistiques.

Pour résumer, les mathématiciens disent dans leur langage que le théorème spectral permet d'affirmer la diagonalisabilité d'endomorphismes (de matrices) et justifie également la décomposition en valeurs propres.

Pour simplifier la démonstration, nous ne traitons ici que les matrices réelles en évitant un maximum le langage des mathématiciens.

Nous noterons dans un premier temps  l'ensemble des matrices  à coefficients réels. Nous confondrons la  matrice avec l’application linéaire induite sur l’espace vectoriel  par  ().

Rappel : Nous avons vu lors de l'étude des changements de base que si  une base de  et alors a matrice de l'application linéaire M dans la base  est  où S est la matrice formée par les vecteurs colonnes.

D'abord, nous vérifions simplement que si A est une matrice symétrique alors :

  (169)

Nous nous proposons maintenant d'étudier les propriétés suivantes d'une matrice M symétrique :

P1. Toutes les valeurs propres de M sont réelles.

Démonstration:

Soit :

  (170)

un vecteur propre à priori complexe de valeur propre. Notons :

  (171)

le vecteur conjugué de . Nous avons alors :

  (172)

D'autre part vu que nous avons :

  (173)

Etant donné que  nous avons  et par suite, .

C.Q.F.D.

P2. Deux espaces propres de M relatifs à des valeurs propres différentes sont orthogonaux (en d'autres termes, les vecteurs propres sont indépendants).

Démonstration:

Soit  deux valeurs propres distinctes de vecteurs propres correspondants . Nous avons (ne pas oublier que M est symétrique!) :

  (174)

ainsi :

   (175)

ce qui entraîne:

  (176)

C.Q.F.D.

Avant d'aller plus loin, il nous faut aussi démontrer que si  est une matrice symétrique et V un sous espace vectoriel de  invariant par M (c'est-à-dire qui vérifie pour tout) alors nous avons les propriétés suivantes :

P1. L'orthogonal de V noté  (obtenu par la méthode de Grahm-Schmidt vue dans le chapitre de calcul vectoriel) est aussi invariant par M.

Démonstration:

Soit  et alors :

  (177)

ce qui montre que .

C.Q.F.D.

P2. Si  est une base orthonormale de  alors la matrice de la restriction de M à  dans la base  est aussi symétrique.

Démonstration:

Notons  la matrice de la restriction de M à  dans la base. Nous avons par définition pour tout  (puisque le vecteur résultant d'une application linéaire comme M peut s'exprimer dans sa base) :

  (178)

 Or :

  (179)

car  si  dans la base orthonormale.

D’un autre coté :

  (180)

Donc  ce qui montre que.

C.Q.F.D.

Nous allons à présent pouvoir montrer que toute matrice symétrique  est diagonalisable. C'est-à-dire qu'il existe une matrice inversible S telle que  soit diagonale.

Remarque: En fait nous verrons, pour être plus précis, qu'il existe S orthogonale telle que  soit diagonale.

Rappel : S orthogonale signifie que  (où I est la matrice identité) ce qui équivaut à dire que les colonnes de S forment une base orthonormale de .

Donc allons-y et pour cela considréons  une matrice symétrique. Alors nous souhaitons démontrér qu'il existe une matrice S orthogonale telle que  soit diagonale (en d'autres termes, il existe une base où M est diagonalisable).

Démonstration:

Nous prouvons l'affirmation par récurrence sur n. Si  il n'y a rien à montrer. Supposons que l'affirmation soit vérifiée pour  et prouvons là pour. Soit donc  une matrice symétrique et  une valeur propre de M.

Nous vérifions facilement que l'espace propre  est invariant par M  (il suffit de prendre n'importe quelle application numérique) et que par la démonstration vue plus haut que  est aussi invariant par M. De plus, nous savons (cf. chapitre de calcul vectoriel), que  se décompose en somme directe.

Si , et il suffit de prendre un base orthonormale de W pour diagonaliser M. En effet si   est une telle base, la matrice  formée par les vecteurs colonnes  () est orthogonale et vérifie :

  (181)

est bien diagonale.

Supposons donc  et soit  avec une base orthonormale de. Notons A la matrice de la restriction de M à  dans la base. A est aussi symétrique (selon la démonstration d'une des propriétés précédents).

Par hypothèse de récurrence il existe une matrice  orthogonale telle que  soit diagonale.

Notons par  une base orthonormale  de W  et G la matrice formée par les vecteurs colonnes. Alors, nous pouvons écrire que :

  (182)

et G est aussi orthogonale par construction.

Considérons la matrice par blocs (matrice composée de matrices) suivante :

  (183)

et posons. Il est évident que S est orthogonale  car G et L le sont. Effectivement, si et alors (ne pas oublier que la multiplication matricielle est associative):

  (184)

De plus S vérifie :

  (185)

Et  alors :

  (186)

est bien diagonale.

C.Q.F.D.

Pour finir voici donc le "théorème spectral" (cas réel): Si une matrice symétrique alors il existe une base orthonormale formée de vecteurs propres de M.

Démonstration:

Nous avons donc vu dans les paragraphes précédents qu'il existe S orthogonale telle que  soit diagonale. Notons  les colonnes de S.  est une base orthonormale de  car S est orthogonale. Notant  le i-ème vecteur de la base canonique de  et  le i-ème coefficient diagonal de  nous avons sans supposer directement que  est une valeur propre pour l'instant :

  (187)

en multipliant par S des deux côtés de l’égalité nous avons :

  (188)

et donc :

ce qui montre que  sont des vecteurs propres et  les valeurs propres.








Ajouter un commentaire à cette page:
Votre nom:
Votre message:

 
  nombre de visiteurs venus 484448 visiteurs (2038165 hits) Ici!

Tracked by Histats.com
Recherche personnalisée
$value) { if ($param == 'client') { google_append_url($google_ad_url, $param, 'ca-mb-' . $GLOBALS['google'][$param]); } else if (strpos($param, 'color_') === 0) { google_append_color($google_ad_url, $param); } else if ((strpos($param, 'host') === 0) || (strpos($param, 'url') === 0)) { google_append_url($google_ad_url, $param, $google_scheme . $GLOBALS['google'][$param]); } else { google_append_globals($google_ad_url, $param); } } google_append_url($google_ad_url, 'dt', round(1000 * array_sum(explode(' ', microtime())))); return $google_ad_url; } $google_ad_handle = @fopen(google_get_ad_url(), 'r'); if ($google_ad_handle) { while (!feof($google_ad_handle)) { echo fread($google_ad_handle, 8192); } fclose($google_ad_handle); } ?>
 
 
=> Veux-tu aussi créer une site gratuit ? Alors clique ici ! <=