Cours mathématique sur l'Algèbre Linéaire



COURS SUR L'ALGÈBRE LINÉAIRE

1. Systèmes linéaires

2. Transformations linéaires

3. Matrices

3.1. Opérations sur les matrices

3.2. Types de matrices

3.3. Changements de base

3.4. Déterminants

3.4.1. Dérivée d'un déterminant

3.4.2. Inverse d'une matrice

4. Valeurs et vecteurs propres

4.1. Matrices de rotation

4.2. Théorème spectral

Il y a plusieurs manières d'aborder l'algèbre linéaire. D'abord une manière pragmatique (nous commencerons par celle-ci car notre expérience nous a montré que c'est celle qui semblait le mieux marcher chez les étudiants) et une manière plus formelle que nous présenterons aussi après la première.

Ainsi, rappelons que nous avions étudié dans le chapitre de calcul algébrique comment déterminer l'intersection (si elle existe) de l'équation de deux droites (nous pouvons étendre le problème bien évidemment à plus de deux droites) dans equationdonnées par :

equation et equation   (13.1)

equation.

En cherchant donc la valeur de equation pour laquelle :

equation   (13.2)

Ainsi nous pouvions écrire :

equation   (13.3)

Cependant, il existe une autre manière de présenter le problème comme nous l'avons vu en méthodes numériques (section d'informatique théorique). Effectivement, nous pouvons écrire le problème sous la forme d'un bloc d'équations :

equation   (13.4)

et comme nous cherchons equation, nous avons :

equation   (13.5)

Cette écriture s'appelle comme nous l'avons présenté dans le chapitre de Méthodes Numériques (section d'Informatique Théorique) un "système linéaire" que nous pouvons résoudre en soustrayant ou en additionnant les lignes entre elles (l'ensemble des solutions étant toujours égal), ce qui nous donne :

equation   (13.6)

et nous voyons que nous retombons sur la solution :

equation   (13.7)

il y donc deux manière de présenter un problème d'intersection de droites :

1. Sous forme d'équation

2. Sous forme de système

Nous allons nous intéresser dans une partie ce chapitre à la deuxième méthode qui nous permettre à l'aide des outils vus dans le chapitre de calcul vectoriel de résoudre les intersection non plus d'une ou plusieurs droites mais d'une ou plusieurs droits, plans, hyperplans dans respectivement equation.

Il y a cependant une condition à remplir : comme nous l'avons vu dans l'exemple précédent, nous ne pourrions pas résoudre un système d'équations à deux inconnues si nous n'avons qu'une seule équation. C'est la raison pour laquelle il faut et il suffit pour un système d'équation à n inconnues avoir au moins n équations. Ainsi, nous parlons de : "systèmes de n équations à n inconnues" et comme nous le verrons plus loin, ceci implique trivialement d'avoir une matrice carrée (le concept de "matrice" sera défini un peu plus loin). Nous démontrerons aussi que pour un tel système ait des solutions non toutes nulles, il faut que nous ayons un déterminant de la matrice qui soit non nul (le concept de "déterminant" sera défini plus loin) et donc que la matrice soit inversible.

SYSTÈMES LINÉAIRES

Définition: Nous appelons donc "système linéaire", ou simplement "système", toute famille d'équations de la forme :

equation   (13.8)

où chaque ligne représente l'équation d'une droite, plan ou hyperplan (cf. chapitre de Géométrie Analytique) et equation les "coefficients du système", equation les "coefficients du second membre" et les equation les "inconnues du système".

Si les coefficients du second membre sont tous nuls, nous disons alors que le système est un "système homogène" et alors celui-ci admet au moins la solution triviale où les equation sont tous nuls.

Nous appelons "système homogène associé au système", le système d'équations que nous obtenons en substituant des zéros aux coefficients du second membre.

Rappelons les élément suivants :

- L'équation d'une droite (cf. chapitre d'Analyse Fonctionnelle) est donnée par :

equation   (13.9)

en posant equation.

- L'équation d'un plan  (cf. chapitre de Géométrie Analytique) est donnée par :

equation   (13.10)

en posant equation.

- L'équation d'un hyperplan est très facilement (si vous ne voyez pas comment faites le nous savoir nous le préciseront) généralisable à partir de la démonstration de celle du plan et nous obtenons ainsi :

equation   (13.11)

en posant equation

Nous écrivons souvent un système linéaire sous la forme condensée suivante :

equation   (13.12)

Nous appelons "solution du système" tout n-uplet equation tel que :

equation   (13.13)

Résoudre un système signifie trouver l'ensemble des solutions de ce système. Deux systèmes à n inconnues sont dits "systèmes équivalents" si toute solution de l'un est solution de l'autre, autrement dit, s'ils admettent le même ensemble de solutions. Nous disons parfois que les équations d'un système sont des "équations compatibles" ou "équations incompatibles", suivant que ce système admet au moins une solution ou n'en admet aucune.

Nous pouvons également donner bien sûr une interprétation géométrique à ces systèmes. Supposons que les premiers membres des équations du système soient non nuls. Alors, nous savons que chacune de ces équations représente un hyperplan d'un espace affine (voir le chapitre de calcul vectoriel) de dimension n. Par conséquent, l'ensemble des solutions du système, regardé comme ensemble de n-uplets de coordonnées, représente une intersection finie d'hyperplans.

exempleExemple:

Le système d'équations suivant:

equation   (13.14)

noté plus conventionellement dans les petites classes sous la forme:

equation   (13.15)

Aurait comme solutions les points représentat l'intersection des trois plans définis par les trois équations. Mais comme nous pouvons le voir visuellement avec Maple à l'aide des commandes suivantes:

>with(plots);
>implicitplot3d({x-3*z=-3,2*x-5*y-z=-2,x+2*y-5*z=1},x=-3..3,y=-3..3,z=-3..3);

equation
  (13.16)

ce système n'a aucune solution. Ce qui peut soit se vérifier à la main, soit avec Maple en écrivant:

>solve({x-3*z=-3,2*x-5*y-z=-2,x+2*y-5*z=1},{x,y,z});

Remarque: Pour la méthode de résolution "classique" de ces systèmes, nous renvoyons le lecteur au chapitre traitant des méthodes numériques dans la section d'informatique.

C'était donc la manière pragmatique de voir les choses... passons maintenant à la seconde façon un peu plus ... mathématique (mais qui reste très simple) :

TRANSFORMATIONS LINÉAIRES

Définition: Une "transformation linéaire" ou "application linéaire" A est une application d'un espace vectoriel E vers un espace vectoriel F telle que avec K étant equationou equation :

equation   (13.17)

plus fréquemment donné sous la forme (car l'application linéaire est souvent assimilée à une matrice):

equation   (13.18)

ceci constitue, pour rappel, un endomorphisme (cf. chapitre de Théorie Des Ensembles).

La première propriété spécifie que la transformée d'une somme de vecteurs doit être égale à la somme des transformées, pour qu'elle soit linéaire. La deuxième propriété précise que la transformée d'un vecteur auquel nous avons appliqué un facteur d'échelle (homothétie) doit aussi être égale à ce facteur appliqué sur la transformée du vecteur original. Si l'une ou l'autre de ces deux propriétés n'est pas respectée, la transformation n'est alors pas linéaire.

Nous allons maintenant montrer que toute transformation linéaire peut être représentée par une matrice:

Soient equation les vecteurs de base pour E et equation ceux de F. Avec ces bases, nous pouvons représenter n'importe quels vecteurs equation avec les combinaisons linéaires suivantes (cf. chapitre de Calcul Vectoriel) :

equation   (13.19)

Soit la transformation linéaire A qui applique E sur F (equation). Donc equation que nous pouvons réécrire de la façon suivante :

equation   (13.20)

mais puisque A est un opérateur linéaire par définition, nous pouvons aussi écrire :

equation   (13.21)

En considérant maintenant que les vecteurs equation sont des éléments de F, nous pouvons les réécrire en tant qu'une combinaison linéaire de ses vecteurs de base :

equation   (13.22)

Ainsi, nous obtenons :

equation   (13.23)

En inversant l'ordre des sommations, nous pouvons écrire :

equation   (13.24)

et en réarrangeant cette dernière relation, nous produisons le résultat :

equation   (13.25)

Finalement, en se rappelant que les vecteurs de base equation doivent être indépendants, nous pouvons conclure que leurs coefficients doivent forcément être nuls, donc :

equation   (13.26)

Ce qui correspond au produit de "matrice" :

equation   (13.27)

que nous pouvons noter :

equation   (13.28)

Autrement dit, toute transformation linéaire peut être décrite par une matrice A qu'il s'agit de multiplier avec le vecteur que nous voulons transformer, pour obtenir le vecteur résultant de la transformation.


page suivante : 3. Matrices