NOTATION INDICIELLE
1. Tenseur
2.1. Sommation sur plusieurs indices
2.2. Symbole de Kronecker
2.3. Symbole d'antisymétrie
3.1. Déterminant de Gram
4. Composantes contravariantes et covariantes
5.1. Méthode d'orthogonalisaiton de Schmidt
5.2. Changements de bases
5.3. Bases réciproques
6.1. Tenseur fondamental
6.2. Produit tensoriel de deux vecteurs
6.3. Espaces tensoriels
6.4. Combinaisons linéaires de tenseurs
6.5. Contraction des indices
7.1. Tenseur symétrique
7.2. Tenseur antisymétrique
7.3. Tenseur fondamental
8.1. Repère naturel en coordonnées sphériques
8.2. Repère naturel en coordonnées polaires
8.3. Repère naturel en coordonnées cylindriques
10.1. Identité de Ricci
11. Tenseur de Riemann-Christoffel
11.1. Première identité de Bianchi
12. Tenseur de Ricci
13. Tenseur d'Einstein
Nous utilisons par la suite des symboles mathématiques: coordonnées,
composantes de vecteurs et tenseurs, éléments de matrice, etc.,
dont le nombre, dans chaque catégorie, est grand ou indéterminé.
Pour distinguer les divers symboles d'une catégorie nous employons
des indices. Par exemple, au lieu des variables traditionnelles x, y, z nous
utiliserons éventuellement les grandeurs (comme
nous l'avons déjà fait en algèbre linéaire). Cette notation devient
indispensable lorsque nous avons des variables en nombre indéterminé.
Ainsi, si nous avons n variables, nous les noterons :
Nous utilisons également des indices supérieurs, selon les besoins;
par exemple, .
Afin d'éviter toute confusion avec l'écriture des puissances, la
quantité
à la
puissance p sera écrite
.
Lorsque le contexte écarte tout risque d'ambiguïté, l'utilisation
des parenthèses n'est cependant pas fondamentalement nécessaire.
En calcul tensoriel il existe une convention de sommation qui consiste à utiliser le fait que l'indice répété, ici l'indice i, va devenir lui-même l'indication de la sommation. Nous écrivons alors, avec cette convention :
(14.12)
ce qui permet de condenser relativement bien les écritures.
Ainsi, pour représenter le système linéaire :
(14.13)
Nous écrirons (remarquez bien comment s'écrivent les composants de la matrice associée) :
(14.14)
en spécifiant que c'est pour .
Nous voyons sur cet exemple, combien la convention de sommation permet une écriture condensée et donc puissante.
La convention de sommation s'étend à tous les symboles mathématiques
comportant des indices répétés. Ainsi la décomposition d'un vecteur sur
une base
s'écrit
pour
dès
lors :
(14.15)
En résumé, toute expression qui comporte un indice deux fois répété représente une somme sur toutes les valeurs possibles de l'indice répété.


SOMMATION SUR PLUSIEURS INDICES
La convention de sommation (due à Einstein) s'étend au
cas où figurent, en règle générale, plusieurs
indices répétés en positions supérieure
et inférieure dits "indices muets" dans
un même monôme (souvent les physiciens omettent le règle
de les mettre en position opposées comme ce sera aussi le
cas souvent sur ce site!). Soit par exemple, la quantité ,
celle-ci représente la somme suivante pour i et j prenant
les valeurs de 1 à 2:
(14.16)
Ainsi, nous voyons facilement qu'une expression avec deux indices
de sommation qui prennent respectivement les valeurs comportera
termes;
s'il
y a trois indices, de sommation etc.
Il faut faire cependant attention aux substitutions avec ce genre de notation car si nous supposons que nous avons la relation:
avec
(14.17)
Pour obtenir l'expression de A uniquement en fonction
des variables ,
nous ne pouvons pas écrire:
(14.18)
car cela ne revient pas à la même expression après développement puisque les indices muets sont systématiquement sommés de manières identiques et rigides (nous laissons au lecteur le soin de faire ce petit exercice de style).
SYMBOLE DE KRONECKER
Un symbole introduit par le mathématicien Kronecker, est le suivant (souvent utilisé en physique en général dans de nombreux domaines):
(14.19)
Ce symbole est appelé "symbole de Kronecker".
Il permet avantageusement d'écrire, par exemple, le produit scalaire
de deux vecteurs et
,
de norme unité et orthogonaux entre eux, sous la forme:
(14.20)
Lors d'une sommation portant sur deux indices muets, le symbole de Kronecker annule tous les termes où les indices ont des valeurs différentes. Par exemple:
(14.21)
Nous retrouverons ce symbole dans de nombreux exemples de physique théorique (physique quantique ondulatoire, physique quantique des champs, relativité générale, mécanique des fluides, etc..)
SYMBOLE D'ANTSYMÉTRIE
Un autre symbole fort utile est le "symbole d'antisymétrie" ou appelée aussi "tenseur d'antisymétrie" que nous retrouverons en Électrodynamique, en Relativité Générale et en Physique Quantique Relativiste.
Dans le cas où i, j, k prennent l'une
des valeurs {1,2,3} le symbole d'antisymétrie aura
les valeurs définies suivantes:
- ,
si deux quelconques des indices ou plus ont une valeur identique
- ,
si les indices sont dans l'ordre 1, 2, 3 ou proviennent d'un nombre
pair de permutations des indices par rapport à l'ordre initial
des indices.
- ,
si les indices sont dans un ordre qui provient d'un nombre impair
de permutations par rapport à l'ordre initial des indices.
En utilisant ce symbole, un déterminant d'ordre deux (voir algèbre linéaire) s'écrit alors sous la forme avantageuse :
(14.22)
et le produit vectoriel (et ça c'est très pratique en relativité générale) :
(14.23)
où bien sûr, j et k sont sommés et où l'indice muet i est le numéro de la ligne du vecteur résultant (en cas de demande nous ferons les développements). En particulier, le rotationnel d'un champ vectoriel est alors :
(14.24)
Comme exemple, calculons en notation indicielle le double produit
vectoriel :
(14.25)
où à nouveau, l'indice muet i est le numéro de la ligne du vecteur résultant (en cas de demande nous ferons les développements).
Démonstration:
Nous avons indirectement démontré dans le chapitre de Calcul Vectoriel la partie suivante:
(14.26)
que nous pouvons démonter en détails dans le chapitre précédemment mentionné sur demande.
Pour démontrer la relation:
(14.27)
au changement d'indices près montrons d'abord que:
(14.28)
ce qui nous donne:
(14.29)
faisons le développement que pour la première ligne (c'est déjà suffisamment long...):
(14.30)
C'est ce qu'il fallait montrer.
Maintenant montrons que pour la première ligne nous avons bien:
(14.31)
en s'aidant d'un résultat obtenu dans le chapitre de Calcul Vectoriel (produit vectoriel de trois vecteurs différents) nous avons le premier terme (la première ligne du vecteur résultant du calcul):
(14.32)
Il est alors immédiat que (pour i valant 1):
(14.33)
Montrons maintenant que pour i valant 1 nous avons aussi:
(14.34)
Effectivement:
(14.35)
C.Q.F.D.
Comme deuxième exemple, montrons comment la divergence d'un rotationnel s'annule :
(14.36)
Comme de par le théorème de Schwarz est
symétrique dans les indices et que
est
antisymétrique (par définition) dans les mêmes
indices, la somme sur i et j doit nécessairement
s'annuler. Par exemple, la contribution à la somme du terme
est
l'opposée de celle de
.
R1. Le symbole d'antisymétrie est très souvent appelé "tenseur de Levi-Civita" dans la littérature. Au fait, bien que ce soit bien un tenseur sous la forme de ses notations, il s'agit plus d'un outil mathématique qu'un "être" mathématique d'où la préférence de certains physiciens de le nommer "symbole" plutôt que "tenseur". Mais c'est à vous de voir...
R2. Par abus d'écriture nous n'écrivons pas le vecteur de base mais en toute rigueur, et pour éviter de l'oublier, rappelons qu'afin d'équilibrer les membres de l'égalité et dans le souci de préciser que les vecteurs sont exprimés dans la même base, nous devrions écrire :
(14.37)
Voyons maintenant des applications concrètes de cette notation indicielle en reprenant l'exemple du changement de base que nous avons déjà vu en calcul vectoriel :
Soient deux bases et
d'un
espace vectoriel euclidien
.
Chaque vecteur d'une base peut être décomposé sur l'autre base
sous la forme d'une application linéaire (matrice de changement
de base - voir chapitre d'Algèbre Linéaire) :
et
(14.38)
où nous utilisons bien évidemment la convention de sommation pour
Rappelons que la matrice de changement de base (ou "matrice transformation") doit avoir autant de colonnes que le vecteur de base a de lignes (dimensions). Petit exemple à trois dimensions:
(14.39)
et il est évident qu'il est bien plus sympathique d'écrire cela sous la forme:
(14.40)
où donc sur A, nous avons le k qui représente la colonne de la matrice et i la ligne.
Un vecteur quelconque de
peut être
décomposé (nous l'avons déjà vu) sur chaque
base de
sous
la forme:
(14.41)
Si nous cherchons les relations entre les composantes et
il
suffit de reprendre les relations de changement de base et nous
avons alors (cela revient à faire de l'algèbre linéaire):
(14.42)
De suite par l'unicité de la décomposition d'un vecteur sur une base, nous pouvons égaler les coefficients des vecteurs de base et nous obtenons (il faut prendre garde a réarranger à nouveau l'ordre des termes car la multiplication matricielle n'est pas commutative comme nous le savons déjà) :
et
(14.43)
Il vient également la relation triviale (cf. chapitre d'Algèbre Linéaire) :
(14.44)
Effectivement faisons un exemple explicite simple avec une matrice de dimension 2:
(14.45)
Une autre manière élégante de montrer en toute généralité la relation antéprécédente est de se rappeler du résultat démontré juste plus haut:
(14.46)
et en utilisant:
(14.47)
Il vient alors:
(14.48)
Les vecteurs de base étant linéairement indépendants, cette dernière
relation implique que lorsque :
(14.49)
et lorsque :
(14.50)
Ainsi il vient:
(14.51)
Quant au produit scalaire, les résultats obtenus avec la notation indicielle sont forts intéressants et extrêmement puissants. Nous avons déjà défini le produit scalaire dans le chapitre de Calcul Vectoriel mais voyons comment nous manipulons ce dernier avec la notation indicielle:
Considérons un espace vectoriel euclidien rapporté à une
base quelconque
.
Les vecteurs s'écrivent sur cette base (nous le savons déjà):
,
(14.52)
Le produit scalaire relativement à ses propriétés et à la notation indicielle s'écrit alors:
(14.53)
Relation fonamentale pour la physique de pointe (relativité générale et théorie des cordes) qui fait apparaître le "tenseur métrique covariant" :
(14.54)
et pour satisfaire la propriété de commutativité du produit scalaire (cf. chapitre de Calcul Vectoriel) nous devons évidemment avoir l'égalité:
(14.55)

(14.56)
sont nulles si .
Le produit scalaire de deux vecteurs
et
se
réduit alors à:
(14.57)
ou encore à :
(14.58)
et donc lorsque les vecteurs de base forment un espace vectoriel
orthonormal il est alors clair que est
alors égal au symbole de Kronecker seul!
page suivante : 3. Métrique et signature