Formes alternées

Le corps de nombres de référence sera $ \mathbb{R}$, mais tout ce qui suit vaut aussi pour le corps des complexes $ \mathbb{C}$. Soit $ E$ un espace vectoriel de dimension $ n$ sur $ \mathbb{R}$.

Définition 5   On appelle forme $ n$-linéaire alternée toute application $ f$ de $ E^n$ dans $ \mathbb{R}$ telle que :
$ \bullet$
$ f$ est $ n$-linéaire : $ \forall i=1,\ldots,n$, $ \forall v_1,\ldots,v_{i-1},v_{i+1},\ldots,v_n\in E$ l'application partielle qui à $ v\in E$ associe $ f(v_1,\ldots,v_{i-1},v,v_{i+1},\ldots,v_n)$ est linéaire :
$\displaystyle \forall u,v\in E ,\;\forall \lambda,\mu\in\mathbb{R}\;,$      
$\displaystyle f(v_1,\ldots,v_{i-1},\lambda u +\mu v,v_{i+1},\ldots,v_n)$ $\displaystyle =$ $\displaystyle \lambda f(v_1,\ldots,v_{i-1},u,v_{i+1},\ldots,v_n)$  
    $\displaystyle +\mu f(v_1,\ldots,v_{i-1},v,v_{i+1},\ldots,v_n)$  

$ \bullet$
$ f$ est alternée : $ \forall s\in {\cal S}_n$, $ \forall v_1,\ldots,v_n\in E$, $ \forall i\neq j\in \{1,\ldots,n\}$ :

$\displaystyle f(v_1,\ldots,v_j,\ldots,v_i,\ldots,v_n)
= - f(v_1,\ldots,v_i,\ldots,v_j,\ldots,v_n)\;.
$

Une forme linéaire associe donc un réel à un $ n$-uplet de vecteurs. Si on remplace un des $ n$ vecteurs par son produit par un réel, le résultat est multiplié par ce même réel. Si on remplace un vecteur par une somme de deux vecteurs, le résultat est la somme des deux résultats obtenus avec chacun des vecteurs (forme $ n$-linéaire). De plus si on échange deux des $ n$ vecteurs, le résultat est opposé (forme alternée). Nous aurions aussi bien pu demander que l'image d'un $ n$-uplet de vecteurs dans lequel deux d'entre eux sont égaux, soit nulle.

Proposition 3   Soit $ f$ une forme $ n$-linéaire. Alors $ f$ est une forme alternée si et seulement si, pour tout $ n$-uplet de vecteurs $ v_1,\ldots,v_n$ et pour tout $ i\neq j\in\{1,\ldots,n\}$,

$\displaystyle v_i=v_j\;\Longrightarrow\; f(v_1,\ldots,v_n)=0\;.
$

Démonstration : Supposons d'abord que $ f$ soit une forme alternée :

$\displaystyle f(v_1,\ldots,v_i,\ldots,v_j,\ldots,v_n)=
-f(v_1,\ldots,v_j,\ldots,v_i,\ldots,v_n)\;.
$

Si $ v_i=v_j$, le résultat doit être le même : il ne peut être que nul. Réciproquement, si $ f$ est une forme $ n$-linéaire :
$\displaystyle f(v_1,\ldots,v_i+v_j,\ldots,v_i+v_j,\ldots,v_n)$ $\displaystyle =$ $\displaystyle f(v_1,\ldots,v_i,\ldots,v_i,\ldots,v_n)$  
    $\displaystyle +f(v_1,\ldots,v_i,\ldots,v_j,\ldots,v_n)$  
    $\displaystyle +f(v_1,\ldots,v_j,\ldots,v_i,\ldots,v_n)$  
    $\displaystyle +f(v_1,\ldots,v_j,\ldots,v_j,\ldots,v_n)$  

Si l'image d'un $ n$-uplet dans lequel deux des vecteurs sont égaux est nulle, alors la somme ci-dessus est nulle, et les deux termes dans lesquels $ v_i$ et $ v_j$ sont répétés sont également nuls. Il vient donc :

$\displaystyle f(v_1,\ldots,v_i,\ldots,v_j,\ldots,v_n)=
-f(v_1,\ldots,v_j,\ldots,v_i,\ldots,v_n)\;.
$

$ \square$ Toute forme $ n$-linéaire alternée est explicitement déterminée par sa valeur sur une base.

Théorème 2   Soit $ (e_1,\ldots,e_n)$ une base de $ E$. Soit $ (v_1,\ldots,v_n)$ un $ n$-uplet de vecteurs. Pour tout $ j=1,\ldots,n$, on note $ (a_{i,j})_{i=1,\ldots,n}$ les coordonnées de $ v_j$ dans la base $ (e_1,\ldots,e_n)$ :

$\displaystyle \forall j=1,\ldots,n\;,\quad v_j=\sum_{i=1}^n a_{i,j}  e_i\;.
$

Alors :

$\displaystyle f(v_1,\ldots,v_n) = f(e_1,\ldots,e_n)
\left(\sum_{s\in{\cal S}_n} \varepsilon (s) \prod_{j=1}^n a_{s(j),j}\right)\;,
$

$ \varepsilon (s)$ désigne la signature de la permutation $ s$.

Démonstration : Appliquons la $ n$-linéarité à :

$\displaystyle f(v_1,\ldots,v_n)=
f\left(\sum_{i=1}^n a_{i,1}e_i ,\ldots,\sum_{i=1}^n a_{i,n}e_i\right)\;.
$

On obtient une somme de facteurs dont chacun est calculé en choisissant l'un des termes de la somme pour chacune des coordonnées. Un tel terme est défini par une application de $ \{1,\ldots,n\}$ dans lui-même :

$\displaystyle f(v_1,\ldots,v_n) = \sum_{\varphi\in \{1,\ldots,n\}^{\{1,\ldots,n...
...od_{j=1}^n a_{\varphi(j),j}\right)
f(e_{\varphi(1)},\ldots,e_{\varphi(n)})\;.
$

Mais d'après la proposition 3, parmi les termes $ f(e_{\varphi(1)},\ldots,e_{\varphi(n)})$ tous ceux qui comportent deux fois le même vecteur sont nuls. Seuls peuvent être non nuls les termes correspondant à une application $ \varphi$ de $ \{1,\ldots,n\}$ dans lui-même injective. Une telle application est nécessairement bijective : c'est une permutation.

$\displaystyle f(v_1,\ldots,v_n) = \displaystyle{\sum_{s\in {\cal S}_n}
\left(\prod_{j=1}^n a_{s(j),j}\right)
f(e_{s(1)},\ldots,e_{s(n)})}\;.
$

Or toute permutation est un produit de transpositions. Chaque transposition des coordonnées change le signe, donc si une permutation $ s$ est le produit de $ k$ transpositions :

$\displaystyle f(e_{s(1)},\ldots,e_{s(n)}) = (-1)^k f(e_1,\ldots,e_n)\;.$

Donc d'après la proposition 2 :

$\displaystyle f(e_{s(1)},\ldots,e_{s(n)}) = \varepsilon (s) f(e_1,\ldots,e_n)\;.$

$ \square$ Le théorème 2  montre qu'une forme $ n$-linéaire alternée est déterminée de façon unique par sa valeur sur une base de $ E$.

Définition 6   On appelle :
  1. déterminant dans la base $ {\cal B}$ l'unique forme linéaire alternée $ f$ telle que $ f({\cal B})=1$ ; on la note $ \mathrm{det}_{\cal B}$.
  2. déterminant d'une famille $ (v_1,\ldots,v_n)$ de $ n$ vecteurs de $ \mathbb{R}^n$ son déterminant dans la base canonique de $ \mathbb{R}^n$ ;
  3. déterminant d'une matrice carrée $ A\in {\cal M}_{n\times
n}(\mathbb{R})$, le déterminant de la famille de ses vecteurs colonnes dans la base canonique de $ \mathbb{R}^n$.

Voici comment s'effectuent les changements de base.

Proposition 4   Soient $ {\cal B}$ et $ {\cal B}'$ deux bases de $ E$.

$\displaystyle \mathrm{det}_{{\cal B}'} = \Big(\mathrm{det}_{{\cal B}'}({\cal B})\Big)
\mathrm{det}_{{\cal B}}
$

Démonstration : Comme conséquence du théorème 2, deux formes $ n$-linéaires alternées sont toujours proportionnelles. Il existe donc une constante $ \lambda$ telle que $ \mathrm{det}_{{\cal B}'}=\lambda
\mathrm{det}_{{\cal B}}$. En prenant l'image par $ \mathrm{det}_{{\cal B}}$ et $ \mathrm{det}_{{\cal B}'}$ de la base $ {\cal B}$, on trouve $ \lambda=
\mathrm{det}_{{\cal B}'}({\cal B})$, puisque $ \mathrm{det}_{{\cal B}}({\cal B})=1$ par définition. $ \square$ La plupart des déterminants que vous aurez à calculer seront des déterminants d'une famille de vecteurs de $ \mathbb{R}^n$ ou d'une matrice. On les note entre deux barres droites :

$\displaystyle \vert v_1,\ldots,v_n\vert\quad \mathrm{ou} \quad \vert A\vert
$

Soit $ A=(a_{i,j})_{i,j=1,\ldots,n}$ une matrice carrée. Le théorème 2  fournit une expression explicite de son déterminant :

$\displaystyle \vert A\vert = \sum_{s\in{\cal S}_n} \varepsilon (s) \prod_{j=1}^n a_{s(j),j}\;.$ (1)

Commencez par vérifier que cette formule coïncide bien avec celles que vous connaissez en dimensions $ 2$ et $ 3$.

$\displaystyle \left\vert\begin{matrix}
x_1&x_2\\
y_1&y_2
\end{matrix}\right\vert
=x_1y_2-x_2y_1\;.
$

$\displaystyle \left\vert\begin{matrix}
x_1&x_2&x_3\\
y_1&y_2&y_3\\
z_1&z_2&z_...
...x}\right\vert
=x_1y_2z_3+x_2y_3z_1+x_3y_1z_2
-z_1y_2x_3-z_2y_3x_1-z_3y_1x_2\;.
$

La règle de Sarrus est un moyen mnémotechnique d'appliquer la formule en dimension 3 (et en dimension 3 seulement). On réécrit les deux premières lignes du déterminant en dessous de celui-ci, puis on effectue tous les produits en diagonale. On affecte du signe $ +$ les diagonales descendantes, du signe $ -$ les diagonales montantes, et on ajoute le tout (figure 1). Par exemple:

\begin{displaymath}
\left\vert
\begin{array}{crc}
1&2&3\\
2&-1&1\\
3&-2&2
\end{array}\right\vert
=
+(-2)+(-12)+(+6)-(-9)-(-2)-(+8) = -5
\end{displaymath}

Figure 1: Règle de Sarrus.
\includegraphics[width=5cm]{sarrus}
À part en dimensions $ 2$ et $ 3$, la formule (1) ne vous sera pas très utile, et vous ne devez surtout pas la considérer comme un algorithme de calcul : elle suppose $ (n-1)(n!)$ multiplications et $ n!-1$ additions, ce qui est prohibitif. Vous devez cependant retenir les deux conséquences suivantes.

Proposition 5   Le déterminant d'une matrice est égal à celui de sa transposée.

Démonstration : Reprenons la formule explicite.

$\displaystyle \vert A\vert = \sum_{s\in{\cal S}_n} \varepsilon (s) \prod_{j=1}^n a_{s(j),j}\;.$

Nous pouvons réindicer le produit correspondant à la permutation $ s$ :

$\displaystyle \prod_{j=1}^n a_{s(j),j}= \prod_{i=1}^n a_{i,s^{-1}(i)}\;.
$

De plus la signature d'une permutation est égale à celle de son inverse (car $ \varepsilon $ est un homomorphisme de groupe).

$\displaystyle \vert A\vert = \sum_{s\in{\cal S}_n} \varepsilon (s^{-1}) \prod_{i=1}^n a_{i,s^{-1}(i)}\;.
$

Réindiçons alors la somme :

$\displaystyle \vert A\vert = \sum_{s\in{\cal S}_n} \varepsilon (s) \prod_{i=1}^n a_{i,s(i)}=\vert{^t\!A}\vert\;.
$

$ \square$

Proposition 6   Le déterminant d'une matrice triangulaire par blocs est le produit des déterminants des blocs diagonaux.

Démonstration : Par la proposition précédente il suffit d'examiner le cas d'une matrice triangulaire par blocs supérieure, c'est-à-dire du type :

$\displaystyle A=\left(\begin{array}{cccc}
\boxed{B_1}&\star&\star&\star\\
0&\d...
...tar\\
\vdots&\ddots&\ddots&\star\\
0&\cdots&0&\boxed{B_d}
\end{array}\right)
$

Nous souhaitons montrer que

$\displaystyle \vert A\vert = \vert B_1\vert \ldots \vert B_d\vert\;.
$

La démonstration s'effectue par récurrence sur le nombre de blocs. Si $ d=1$, il n'y a rien à démontrer. Nous affirmons qu'il suffit de démontrer la propriété pour $ d=2$. En effet, une matrice diagonale avec $ d$ blocs peut être vue comme une matrice à $ 2$ blocs, dont l'un a lui-même $ d-1$ blocs. Si la propriété est vraie pour $ 2$ et pour $ d-1$, elle sera vraie pour $ d$, d'où le résultat par récurrence. Considérons donc une matrice $ A$ du type :

$\displaystyle A = \left(\begin{array}{cc}
\boxed{B_1}&\star\\
0&\boxed{B_2}
\end{array}\right)
$

Nous supposons donc que pour un certain entier $ k$ strictement compris entre $ 1$ et $ n$ :

$\displaystyle (i>k$    et $\displaystyle j\leqslant k)\;\Longrightarrow a_{i,j}=0\;,
$

de sorte que

$\displaystyle B_1=(a_{i,j})_{i,j=1,\ldots,k}$   et$\displaystyle \quad
B_2=(a_{i,j})_{i,j=k+1,\ldots,n}\;.
$

Utilisons à nouveau la formule explicite.

$\displaystyle \vert A\vert = \sum_{s\in{\cal S}_n} \varepsilon (s) \prod_{j=1}^n a_{s(j),j}\;.$

Soit $ s\in{\cal S}_n$ une permutation. Le produit $ \prod_{j=1}^n a_{s(j),j}$ est nul s'il existe $ j$ tel que $ s(j)>k$ et $ j\leqslant k$. Supposons que ce produit soit non nul. Alors nécessairement $ j\leqslant k$ entraîne $ s(j)\leqslant k$. Soit $ s_1$ la restriction de $ s$ à $ \{1,\ldots,k\}$ : c'est une permutation de $ \{1,\ldots,k\}$. Donc la restriction $ s_2$ de $ s$ à $ \{k+1,\ldots,n\}$ est aussi une permutation de $ \{k+1,\ldots,n\}$. On a donc $ s=s_1\circ s_2$, ce qui entraîne $ \varepsilon (s)=\varepsilon (s_1)\varepsilon (s_2)$. Le produit s'écrit alors :

$\displaystyle \prod_{j=1}^n a_{s(j),j} = \prod_{j=1}^k a_{s_1(j),j} 
\prod_{j=k+1}^n a_{s_2(j),j}\;.
$

Notons $ {\cal S}$ l'ensemble des permutations de $ \{1,\ldots,k\}$ et $ {\cal S}'$ l'ensemble des permutations de $ \{k+1,\ldots,n\}$. Si on le débarrasse des termes nuls, le déterminant de $ A$ devient :
$\displaystyle \vert A\vert$ $\displaystyle =$ $\displaystyle \sum_{s_1\in{\cal S}}\sum_{s_2\in{\cal S}'} \varepsilon (s_1)\varepsilon (s_2)
\prod_{j=1}^k a_{s_1(j),j} \prod_{j=k+1}^n a_{s_2(j),j}$  
  $\displaystyle =$ $\displaystyle \left(\sum_{s_1\in{\cal S}}\varepsilon (s_1)\prod_{j=1}^k
a_{s_1(...
...left(\sum_{s_2\in{\cal S}'}\varepsilon (s_2)\prod_{j=k+1}^n
a_{s_2(j),j}\right)$  
  $\displaystyle =$ $\displaystyle \vert B_1\vert \vert B_2\vert\;.$  

$ \square$ L'application la plus fréquente de la proposition 6  concerne les matrices triangulaires ($ n$ blocs de taille $ 1$ sur la diagonale) : le déterminant d'une matrice triangulaire est le produit de ses coefficients diagonaux. Comme cas particulier, le déterminant d'une matrice diagonale est le produit des coefficients diagonaux, et le déterminant de la matrice identité est $ 1$. Vous devez également retenir les conséquences suivantes de la définition 6.

Proposition 7   Quelle que soit la base $ {\cal B}$,
  1. une famille de vecteurs est liée si et seulement si son déterminant est nul ;
  2. on ne modifie pas le déterminant si on ajoute à l'un des vecteurs une combinaison linéaire des autres.

Démonstration :  
  1. Soit $ (v_1,\ldots,v_n)$ une famille de $ n$ vecteurs de $ E$. Dans un espace vectoriel de dimension $ n$, si une famille de $ n$ vecteurs est libre, alors c'est une base. Par la proposition 4, le déterminant de cette base dans n'importe quelle autre est non nul. Réciproquement, si la famille est liée, alors l'un des vecteurs est combinaison linéaire des autres. Sans perte de généralité, supposons que ce soit le dernier. En utilisant la linéarité par rapport à la dernière coordonnée :

    $\displaystyle \mathrm{det}_{\cal B}(v_1,\ldots,v_{n-1},\sum_{i=1}^{n-1}\lambda_iv_i)
=\sum_{i=1}^{n-1}\lambda_i\mathrm{det}_{\cal B}(v_1,\ldots,v_{n-1},v_i)
$

    Or le déterminant d'une famille de vecteurs dont deux sont égaux est nul (proposition 3). La somme est donc nulle.
  2. Ajoutons au dernier vecteur une combinaison linéaire des autres.
    $\displaystyle \mathrm{det}_{\cal B}(v_1,\ldots,v_{n-1},v_n+\sum_{i=1}^{n-1}\lambda_iv_i)$ $\displaystyle =$ $\displaystyle \mathrm{det}_{\cal B}(v_1,\ldots,v_{n-1},v_n)$  
        $\displaystyle +\mathrm{det}_{\cal
B}(v_1,\ldots,v_{n-1},\sum_{i=1}^{n-1}\lambda_iv_i)\;.$  

    D'après le point précédent, le second déterminant est nul. D'où le résultat.
$ \square$ Voici l'écriture en termes de matrices, combinant la proposition précédente avec la proposition 5.

Corollaire 1    
  1. Le déterminant d'une matrice carrée de taille $ n\times n$ est nul si et seulement si son rang est strictement inférieur à $ n$.
  2. On ne modifie pas le déterminant d'une matrice en ajoutant à l'un des vecteurs colonnes une combinaison linéaire des autres.
  3. On ne modifie pas le déterminant d'une matrice en ajoutant à l'un des vecteurs lignes une combinaison linéaire des autres.


         © UJF Grenoble, 2011                              Mentions légales