MATRICES



COURS SUR L'ALGÈBRE LINÉAIRE

1. Systèmes linéaires

2. Transformations linéaires

3. Matrices

3.1. Opérations sur les matrices

3.2. Types de matrices

3.3. Changements de base

3.4. Déterminants

3.4.1. Dérivée d'un déterminant

3.4.2. Inverse d'une matrice

4. Valeurs et vecteurs propres

4.1. Matrices de rotation

4.2. Théorème spectral

Nous appelons donc "matrice" à m et lignes et n colonnes, ou "matrice de type mn" (le premier terme correspond toujours aux lignes et le second aux colonnes, pour s'en souvenir il existe un bon moyen mnémotechnique : le président LinColn - abréviation de Ligne et Colonne...), tout tableau de nombres :

equation   (13.29)

Nous désignons souvent une matrice de type equation plus brièvement par :

equation   (13.30)

ou simplement par equation.

Le nombre equation est appelé "terme ou coefficients d'indices i, j". L'indice i étant appelé "indice de ligne" et l'indice j "indice de colonne".

Nous notons equation l'ensemble des matrices equation dont les coefficients prennent leurs valeurs dans K (pouvant être equation ou equation par exemple).

Lorsque equation, nous disons que equation est une "matrice carrée" d'ordre n. Dans ce cas, les termes equation sont appelées "termes diagonaux".

Nous appelons également une matrice à une seule ligne "matrice-ligne" et une matrice à une seule colonne "matrice-colonne". Il est claire qu'une matrice colonne n'est rient d'autre qu'un "vecteur-colonne". Par la suite, les lignes d'une matrice seront assimilées à des matrices-lignes et les colonnes à des matrices-colonnes.

L'intérêt de la notion de matrice apparaître tout au long des textes qui vont suivre mais la raison d'être immédiate de cette notion est simplement de permettre à certaines familles finies de nombres d'être conçues sous la forme d'un tableau rectangulaire.

Nous assignerons aux matrices des symboles propres, à savoir les lettre latines majuscules : A,B,... et aux matrices-colonnes des symboles à savoir les lettres minuscules vectorielles equation; nous les appellerons d'ailleurs indifféremment matrices-colonnes ou vecteurs-colonnes.

Nous appelons "matrice nulle", et nous la notons O, toute matrice dont chaque terme est nul. Les matrices-colonnes sont également désignées par le symbole vectoriel : equation.

Nous appelons "matrice unité d'ordre n" ou "matrice identité d'ordre n", et nous notons equation, ou simplement I, la matrice carrée d'ordre n :

equation   (13.31)

Nous verrons plus loin que la matrice nulle joue le rôle d'élément neutre de l'addition matricielle et la matrice unité d'élément neutre de la multiplication matricielle.

Attention! Lorsque nous travaillons avec les matrices à coefficients complexes il faut toujours utiliser le terme "matrice identité" plutôt que "matrice unitaire" car dans le domaine des nombres complexes la matrice unitaire est un autre objet mathématique qu'il convient de ne pas confondre!

Nous allons maintenant revenir brièvement sur la définition de "rang d'une famille finie" que nous avons vu en calcul vectoriel.

Rappel : Nous appelons "rang" d'une famille de vecteurs la dimension du sous-espace vectoriel de equationqu'elle engendre.

Ainsi, soit equation les colonnes d'une matrice A, nous appelons "rang de A", et nous notons equation, le rang de la famille equation.

Dans un langage un peu plus familier (...) le rang d'une matrice est donné par le nombre de matrice-colonnes qui ne peuvent s'exprimer par la combinaison et la multiplication par un scalaire d'autres matrices-colonnes de la même matrice.

Remarque: S'il a y des difficultés à déterminer le rang d'une matrice il existe un technique "d'échelonnage" des matrices que nous allons voir plus tard qui permet d'effectuer ce travail très rapidement.

Définition: Nous appelons "matrice associée au système" :

equation   (13.32)

l'objet mathématique défini par :

equation   (13.33)

c'est-à-dire la matrice A dont les termes sont les coefficients du système. Nous appelons "matrice du second membre du système linéaire", ou simplement "second membre du système", la matrice-colonne equation dont les termes sont les coefficients du second membre de ce système. Nous appelons également "matrice augmentée associée au système" la matrice obtenue de A en ajoutant equationcomme (n + 1)-ème colonne.

Si nous considérons maintenant un système de matrice associée A et de second membre equation. Désignons toujours par equation les colonnes de A. Le système s'écrit alors de manière équivalente sous la forme d'une équation vectorielle linéaire :

equation   (13.34)

Maintenons rappelons un théorème que nous avons vu en calcul vectoriel : pour que le rang d'une famille de vecteurs equation soit égal au rang de la famille augmentée equation, il faut et il suffit que le vecteur equation soit combinaison linéaire des vecteurs equation.

Il s'ensuit que notre système linéaire sous forme vectorielle admet au moins une solution equation si le rang de la famille equation est égal au rang de la famille augmentée equation et cette solution est unique si et seulement si le rang de la famille equation est n.

Ainsi, pour qu'un système linéaire de matrice associée A et de second membre equation admette au moins une solution, il faut et il suffit que le rang de A soit égal au rang de la matrice augmentée equation. Si cette condition est remplie, le système admet une seule solution si et seulement le rand de A est égal au nombre d'inconnues autrement dit, les colonnes de A sont linéairement indépendantes.

Nous disons qu'une matrice est "échelonnée" si ses lignes satisfont aux deux conditions suivantes :

C1. Toute ligne nulle n'est suivie que de lignes nulles

C2. L'indice de colonne du premier terme non nul de toute ligne non nulle est supérieur à l'indice de colonne du premier terme non nul de la ligne qui la précède.

Une matrice échelonnée non nulle est donc de la forme :

equation   (13.35)

equation et equation sont des termes non nuls. Bien entendu, les lignes nulles terminales peuvent manquer.

Remarque: Nous supposerons relativement évident que les matrices nulles et les matrices unités sont échelonnées.

Les colonnes d'indice equation d'une matrice échelonnée sont clairement linéairement indépendantes. Envisagées comme des vecteurs-colonnes de equation, elles forment donc une base de cet espace vectoriel. En considérant les autres colonnes également comme des vecteurs-colonnes de equation, nous en déduisons qu'elles sont nécessairement combinaison linéaire de celles d'indice equation et donc que le rang de la matrice échelonnée est r.

Nous noterons que r est aussi le nombre de lignes non nulles la matrice échelonnée et également le rang de la famille des lignes de cette matrice, puisque les lignes non nulles sont dès lors manifestement indépendantes.

Nous pouvons dès lors nous autoriser un certain nombre d'opérations élémentaires (supplémentaires) sur les lignes des matrices qui nous seront fort utiles et ce, sans changer son rang :

P1. Nous pouvons permuter les lignes.

Remarque: La matrice est juste une représentation graphique esthétique d'un système linéaire. Ainsi, permuter deux lignes ne change aucunement le système.

P2. Multiplier une ligne par un scalaire non nul

Remarque: Cela ne changeant en rien l'indépendance linéaire des vecteurs-lignes.

P3. Additionner à une ligne, un multiple d'une autre

Remarque: La ligne additionnée disparaîtra au profit de la nouvelle qui est indépendante de toutes les (anciennes) autres. Le système reste ainsi linéairement indépendant.

Toute matrice peut être transformée en matrice échelonnée par une suite finie d'opérations de type P1, P2, P3. C'est cette technique que nous utilisons dans le chapitre traitant des algorithmes pour résoudre les systèmes linéaires.

Il est donc évident que les opérations élémentaires sur les lignes d'une matrice ne modifient pas le rang de la famille des lignes de cette matrice. Or, nous avons observé que le rang de la famille des lignes d'une matrice échelonnée est égal au rang de la famille des colonnes, c'est-à-dire au rang de cette matrice. Nous en concluons que le rang de n'importe quelle matrice de type equation est également le rang de la famille des lignes de cette matrice.

Comme corollaire de cette conclusion, il apparaît que :

equation   (13.36)

Lors de la résolution de système linéaires de m équations à n inconnues il apparaît, comme nous l'avons déjà fait remarquer tout au début de ce chapitre, qu'il doit y avoir au moins un nombre égal d'équations ou d'inconnues ou plus rigoureusement : le nombre d'inconnues doit être inférieur ou égal aux nombre d'équations tel que :

equation   (13.37)

OPÉRATIONS SUR LES MATRICES

Rappelons que nous avons vu lors de notre étude du calcul vectoriel que les opérations de multiplication d'un vecteur par un scalaire, d'addition ou soustraction de vecteurs entre eux et l'opération de produit scalaire formait dans le sens ensembliste du terme un "espace vectoriel" (voir le chapitre de théorie des ensembles) possédant ainsi aussi une "structure algébrique vectorielle". Ceci sous la condition que les vecteurs aient bien sûr les mêmes dimensions (ce constat n'étant pas valable si au lieu du produit scalaire nous prenions le produit vectoriel).

Au même titre que les vecteurs, nous pouvons multiplier une matrice par un scalaire et additionner celles-ci entre elles (tant qu'elles ont les mêmes dimensions...) mais en plus, nous pouvons aussi multiplier deux matrices entre elles sous certaines conditions que nous définirons ci-après. Cela fera également de l'ensemble des matrices dans le sens ensembliste du terme, un espace vectoriel sur le corps K et possédant ainsi aussi une "structure algébrique vectorielle".

Ainsi, un vecteur pourra aussi être vu comme une matrice particulière de dimension equation et s'opérer dans l'espace vectoriel des matrices. En gros..., le calcul vectoriel n'est qu'un cas particulier de l'algèbre linéaire.

Définitions:

D1. Soient equation. Nous appelons "somme de A et B" la matrice equation dont les coefficients sont :

equation   (13.38)

D2. Soient equation une matrice et equation un scalaire. Nous appelons "produit de A par equation" la matrice equationdont les coefficients sont :

equation   (13.39)

De ses deux définitions nous pouvons donc effectivement conclure que l'espace/ensemble des matrices est bien un espace vectoriel et possède ainsi une structure algébrique vectorielle.

D3. Soient E, F, G trois espaces vectoriels de bases respectivesequation et equationdeux applications linéaires (voir théorie des ensembles aussi pour un rappel).

Notons A la matrice de f relativement aux bases equation et B la matrice de g relativement aux bases equation. Alors la matrice C de equation (voir la définition d'une fonction composée dans le chapitre d'analyse fonctionnelle) relativement aux bases equation est égale au produit de B par A noté BA.

equation et equation   (13.40)

equation et equation   (13.41)

Donc soient equation et equation, nous appelons "produit matriciel" ou "multiplication matricielle" de B par A et nous notons BA, la matrice equation dont les coefficients sont :

equation   (13.42)

Il est important de remarque que contrairement à l'addition, A et B peuvent avoir des dimensions différentes. Toutefois! le nombre de lignes de A doit être égale au nombre de colonnes de B, comme l'indique des l'indice n des deux matrices. Donc dans le produit BA, si B est une matrice equation, A doit être une matrice equation, quel que soit p.

En notant par des lettres latines majuscules les matrices et par les lettres grecques minuscules les scalaires, le lecteur vérifiera aisément (nous pouvons rajouter les démonstrations sur demande) les relations :

equation   (13.43)

Il est surtout important de se rappeler de la dernière ligne comme quoi la multiplication matricielle n'est pas commutative.

Remarque: L'ensemble equation des matrices carrées d'ordre n à coefficients dans equation muni de la somme et la multiplication usuelles des matrices forme un anneau (voir chapitre de théorie des ensembles). C'est vrai plus généralement si les coefficients des matrices sont pris dans un anneau quelconque : par exemple l'ensemble equation des matrices à coefficients entiers est un anneau.

page suivante : 3.2. Types de matrices