Cours mathématique sur l'Algèbre Linéaire
1. Systèmes linéaires
2. Transformations linéaires
3.1. Opérations sur les matrices
3.3. Changements de base
3.4.1. Dérivée d'un déterminant
3.4.2. Inverse d'une matrice
4. Valeurs et vecteurs propres
4.1. Matrices de rotation
Il y a plusieurs manières d'aborder l'algèbre linéaire. D'abord une manière pragmatique (nous commencerons par celle-ci car notre expérience nous a montré que c'est celle qui semblait le mieux marcher chez les étudiants) et une manière plus formelle que nous présenterons aussi après la première.
Ainsi, rappelons que nous
avions étudié dans le chapitre de calcul algébrique comment déterminer
l'intersection (si elle existe) de l'équation de deux droites
(nous pouvons étendre le problème bien évidemment à plus de deux
droites) dans données
par :
et
(13.1)
où .
En cherchant donc la valeur de pour
laquelle :
(13.2)
Ainsi nous pouvions écrire :
(13.3)
Cependant, il existe une autre manière de présenter le problème comme nous l'avons vu en méthodes numériques (section d'informatique théorique). Effectivement, nous pouvons écrire le problème sous la forme d'un bloc d'équations :
(13.4)
et comme nous cherchons ,
nous avons :
(13.5)
Cette écriture s'appelle comme nous l'avons présenté dans le chapitre de Méthodes Numériques (section d'Informatique Théorique) un "système linéaire" que nous pouvons résoudre en soustrayant ou en additionnant les lignes entre elles (l'ensemble des solutions étant toujours égal), ce qui nous donne :
(13.6)
et nous voyons que nous retombons sur la solution :
(13.7)
il y donc deux manière de présenter un problème d'intersection de droites :
1. Sous forme d'équation
2. Sous forme de système
Nous allons nous intéresser dans une
partie ce chapitre à la deuxième méthode qui nous permettre à l'aide
des outils vus dans le chapitre de calcul vectoriel de résoudre
les intersection non plus d'une ou plusieurs droites mais d'une
ou plusieurs droits, plans, hyperplans dans respectivement .
Il y a cependant une condition à remplir : comme nous l'avons vu dans l'exemple précédent, nous ne pourrions pas résoudre un système d'équations à deux inconnues si nous n'avons qu'une seule équation. C'est la raison pour laquelle il faut et il suffit pour un système d'équation à n inconnues avoir au moins n équations. Ainsi, nous parlons de : "systèmes de n équations à n inconnues" et comme nous le verrons plus loin, ceci implique trivialement d'avoir une matrice carrée (le concept de "matrice" sera défini un peu plus loin). Nous démontrerons aussi que pour un tel système ait des solutions non toutes nulles, il faut que nous ayons un déterminant de la matrice qui soit non nul (le concept de "déterminant" sera défini plus loin) et donc que la matrice soit inversible.
SYSTÈMES LINÉAIRES
Définition: Nous appelons donc "système linéaire", ou simplement "système", toute famille d'équations de la forme :
(13.8)
où chaque ligne représente l'équation
d'une droite, plan ou hyperplan (cf. chapitre
de Géométrie Analytique)
et les
"coefficients du système",
les
"coefficients du second membre" et
les
les
"inconnues du système".
Si les coefficients du second
membre sont tous nuls, nous disons alors que le système
est un "système homogène" et
alors celui-ci admet au moins la solution triviale où
les sont tous nuls.
Nous appelons "système homogène associé au système", le système d'équations que nous obtenons en substituant des zéros aux coefficients du second membre.
Rappelons les élément suivants :
- L'équation d'une droite (cf. chapitre d'Analyse Fonctionnelle) est donnée par :
(13.9)
en posant .
- L'équation d'un plan (cf. chapitre de Géométrie Analytique) est donnée par :
(13.10)
en posant .
- L'équation d'un hyperplan est très facilement (si vous ne voyez pas comment faites le nous savoir nous le préciseront) généralisable à partir de la démonstration de celle du plan et nous obtenons ainsi :
(13.11)
en posant
Nous écrivons souvent un système linéaire sous la forme condensée suivante :
(13.12)
Nous appelons "solution
du système" tout n-uplet
tel
que :
(13.13)
Résoudre un système signifie trouver l'ensemble des solutions de ce système. Deux systèmes à n inconnues sont dits "systèmes équivalents" si toute solution de l'un est solution de l'autre, autrement dit, s'ils admettent le même ensemble de solutions. Nous disons parfois que les équations d'un système sont des "équations compatibles" ou "équations incompatibles", suivant que ce système admet au moins une solution ou n'en admet aucune.
Nous pouvons également donner bien sûr une interprétation géométrique à ces systèmes. Supposons que les premiers membres des équations du système soient non nuls. Alors, nous savons que chacune de ces équations représente un hyperplan d'un espace affine (voir le chapitre de calcul vectoriel) de dimension n. Par conséquent, l'ensemble des solutions du système, regardé comme ensemble de n-uplets de coordonnées, représente une intersection finie d'hyperplans.
Exemple:
Le système d'équations suivant:
(13.14)
noté plus conventionellement dans les petites classes sous la forme:
(13.15)
Aurait comme solutions les points représentat l'intersection des trois plans définis par les trois équations. Mais comme nous pouvons le voir visuellement avec Maple à l'aide des commandes suivantes:
>with(plots);
>implicitplot3d({x-3*z=-3,2*x-5*y-z=-2,x+2*y-5*z=1},x=-3..3,y=-3..3,z=-3..3);
(13.16)
ce système n'a aucune solution. Ce qui peut soit se vérifier à la main, soit avec Maple en écrivant:
>solve({x-3*z=-3,2*x-5*y-z=-2,x+2*y-5*z=1},{x,y,z});
C'était donc la manière pragmatique de voir les choses... passons maintenant à la seconde façon un peu plus ... mathématique (mais qui reste très simple) :
TRANSFORMATIONS LINÉAIRES
Définition: Une "transformation
linéaire"
ou "application linéaire" A
est une application d'un espace vectoriel E vers un espace
vectoriel F telle que avec K étant ou
:
(13.17)
plus fréquemment donné sous la forme (car l'application linéaire est souvent assimilée à une matrice):
(13.18)
ceci constitue, pour rappel, un endomorphisme (cf. chapitre de Théorie Des Ensembles).
La première propriété spécifie que la transformée d'une somme de vecteurs doit être égale à la somme des transformées, pour qu'elle soit linéaire. La deuxième propriété précise que la transformée d'un vecteur auquel nous avons appliqué un facteur d'échelle (homothétie) doit aussi être égale à ce facteur appliqué sur la transformée du vecteur original. Si l'une ou l'autre de ces deux propriétés n'est pas respectée, la transformation n'est alors pas linéaire.
Nous allons maintenant montrer que toute transformation linéaire peut être représentée par une matrice:
Soient les
vecteurs de base pour E et
ceux
de F. Avec ces bases, nous pouvons représenter
n'importe quels vecteurs
avec
les combinaisons linéaires suivantes (cf.
chapitre de Calcul Vectoriel) :
(13.19)
Soit la transformation linéaire
A qui applique E sur F ().
Donc
que nous pouvons réécrire de la façon suivante
:
(13.20)
mais puisque A est un opérateur linéaire par définition, nous pouvons aussi écrire :
(13.21)
En considérant maintenant
que les vecteurs
sont des éléments de F, nous pouvons les réécrire
en tant qu'une combinaison linéaire de ses vecteurs de base
:
(13.22)
Ainsi, nous obtenons :
(13.23)
En inversant l'ordre des sommations, nous pouvons écrire :
(13.24)
et en réarrangeant cette dernière relation, nous produisons le résultat :
(13.25)
Finalement, en se rappelant
que les vecteurs de base
doivent être indépendants, nous pouvons conclure que
leurs coefficients doivent forcément être nuls, donc
:
(13.26)
Ce qui correspond au produit de "matrice" :
(13.27)
que nous pouvons noter :
(13.28)
Autrement dit, toute transformation linéaire peut être décrite par une matrice A qu'il s'agit de multiplier avec le vecteur que nous voulons transformer, pour obtenir le vecteur résultant de la transformation.
page suivante : 3. Matrices