Dualité

Rappels : espace vectoriel dual

  1. On appelle forme linéaire sur un espace vectoriel réel $ E$ toute application linéaire de $ E$ dans $ \mathbb{R}$.
  2. L'ensemble des formes linéaires sur un espace vectoriel réel $ E$ constitue un espace vectoriel, appelé espace vectoriel dual de $ E$ et noté $ E^*$.
  3. Si $ E$ est de dimension finie $ n$ et si $ (e_1,\dots,e_n)$ est une base de $ E$, on définit, pour tout $ i=1,\dots,n$, une application $ e_i^*$ de $ E$ dans $ \mathbb{R}$ par $ e_i^*\left( \sum\limits_{j=1}^n x_j e_j\right)=x_i$. Cette application, appelée $ i$-ième application coordonnée dans la base $ (e_1,\dots,e_n)$, est une forme linéaire sur $ E$ vérifiant

    $\displaystyle e_i^*(e_j)=\delta_{i,j}= \begin{cases}1 &\text{ si }i=j\\
0 & \text{ sinon,}
\end{cases}$

    et la famille $ (e^*_1,\dots,e^*_n)$ est une base de $ E^*$, appelée base duale de la base $ (e_1,\dots,e_n)$. En particulier, $ E^*$ et $ E$ ont même dimension : $ \dim E^*=\dim E$.

Proposition 31   Soit $ E$ un espace vectoriel euclidien.
  1. Pour tout vecteur $ v$ de $ E$, l'application $ l_v: \; x\mapsto \langle v,x\rangle $ de $ E$ dans $ \mathbb{R}$ est une forme linéaire sur $ E$.
  2. L'application $ v\mapsto l_v$ est un isomorphisme d'espaces vectoriels de $ E$ sur son dual $ E^*$. En particulier, pour toute forme linéaire $ l$ sur $ E$, il existe un vecteur $ v$ de $ E$, et un seul, tel que $ l(x)=l_v(x)=\langle v,x\rangle $ pour tout vecteur $ x$ de $ E$.

Démonstration : La première propriété découle immédiatement de la linéarité du produit scalaire.

Si $ a$ et $ b$ sont deux réels et $ v$ et $ w$ deux vecteurs de $ E$, on a, pour tout $ x\in E$ :

$\displaystyle l_{av+bw}(x)=\la av+bw,x \ra=a\la v,x \ra + b \la w,x \ra=al_v(x)+bl_w(x) \, $

d'où $ l_{av+bw}=al_v+bl_w$ L'application $ v\mapsto l_v$ de $ E$ dans $ E^*$ est donc linéaire.

Comme $ E$ et $ E^*$ ont même dimension, il suffit, pour démontrer que c'est un isomorphisme, de vérifier qu'elle est injective, ou encore que son noyau est réduit au vecteur nul. Mais si $ l_v$ est la forme linéaire nulle, on a $ l_v(x)=\la v,x \ra=0$ pour tout $ x\in E$; en particulier, pour $ x=v$, on a $ \la v,v \ra=\Vert v\Vert^2=0$, d'où $ v=0$.$ \square$

En particulier, pour toute base orthonormale $ (e_1,\dots,e_n)$ de $ E$, la base duale $ (e_1^*, \dots, e_n^*)$ est donnée par $ e_i^*=l_{e_i}$ pour tout $ i=1,\dots,n$, puisque $ e_i^*(x)=\langle e_i,x\rangle$ pour tout vecteur $ x$ de $ E$. Plus généralement, toute forme linéaire $ l$ sur $ E$ est de la forme $ l(x)=\sum\limits_{i=1}^n v_i x_i$ pour un $ n$-uplet $ (v_1,\dots,v_n)$ de réels, où $ (x_1,\dots,x_n)$ sont les coordonnées du vecteur $ x$ dans la base $ (e_1,\dots,e_n)$, de sorte que $ l=l_v$, où $ v=\sum\limits_{i=1}^n v_i e_i$.

Produit vectoriel

Soit $ E$ un espace vectoriel euclidien orienté de dimension $ n$, $ (v_1,\dots,v_{n-1})$ une famille de $ n-1$ vecteurs de $ E$. L'application de $ E$ dans $ \mathbb{R}$ qui à tout vecteur $ x$ associe le produit mixte de la famille $ (v_1,\dots,v_{n-1},x)$ est une forme linéaire sur $ E$. Il existe donc (proposition 31) un vecteur $ w$ de $ E$ et un seul tel que $ \mathrm{det}(v_1,\dots,v_{n-1},x)=\la w,x \ra$ pour tout vecteur $ x$ de $ E$. Ce vecteur est appelé produit vectoriel de la famille $ (v_1,\dots,v_{n-1})$.

Définition 14   Soit $ E$ un espace vectoriel euclidien orienté de dimension $ n$. On appelle produit vectoriel d'une famille $ (v_1,\dots,v_{n-1})$ de $ n-1$ vecteurs de $ E$ l'unique vecteur $ v_1\wedge v_2\wedge \dots \wedge v_{n-1}$ de $ E$ vérifiant

$\displaystyle \mathrm{det}(v_1,\dots,v_{n-1},x) = \la v_1\wedge v_2\wedge \dots \wedge v_{n-1},x \ra$

pour tout vecteur $ x$ de $ E$.

En particulier, pour $ n=3$, le produit vectoriel de deux vecteurs $ u$ et $ v$ d'un espace vectoriel euclidien orienté de dimension 3 est l'unique vecteur $ u\wedge v$ vérifiant

$\displaystyle \mathrm{det}(u,v,x)=\la u \wedge v,x \ra$

pour tout vecteur $ x$ de $ E$.

Propriétés

Nous nous intéresserons surtout au cas $ n=3$. C'est pourquoi nous donnerons les propriétés du produit vectoriel dans ce cadre.

Proposition 32   Soit $ E$ un espace vectoriel euclidien orienté de dimension 3.
  1. Le produit vectoriel est une application bilinéaire alternée, donc antisymétrique, de $ E \times E$ dans $ E$ : pour tous vecteurs $ u,u_1,u_2,v,v_1,v_2$ et tous réels $ a$ et $ b$ :
    • $ (a u_1+b u_2) \wedge v =a \, u_1\wedge v + b \, u_2 \wedge v$ (linéarité à gauche)
    • $ u \wedge (a v_1+b v_2) =a\, u \wedge v_1 + b \, u \wedge v_2$ (linéarité à droite)
    • $ u \wedge u =0 $
    • $ u \wedge v= - v \wedge u$ (antisymétrie)
  2. Le produit vectoriel de deux vecteurs est nul si et seulement si ces deux vecteurs sont colinéaires.
  3. Le produit vectoriel de deux vecteurs est orthogonal à chacun de ces vecteurs.
  4. Si les vecteurs $ u$ et $ v$ forment un système libre, $ (u,v,u\wedge v)$ est une base directe de $ E$.
  5. Si $ (e_1,e_2,e_3)$ est une base orthonormée directe de $ E$, les coordonnées de $ u\wedge v$ dans cette base sont $ (u_2v_3-u_3v_2,
\, u_3v_1-u_1v_3,
\, u_1v_2-u_2v_1)$, si $ u$ a pour coordonnées $ (u_1,u_2,u_3)$ et $ v$ $ (v_1,v_2,v_3)$.
  6. Pour tout couple $ (u,v)$ de vecteurs de $ E$, on a :

    $\displaystyle \Vert u\wedge v\Vert^2+\la u,v \ra^2=\Vert u\Vert^2 \Vert v\Vert^2 \, .$

  7. Pour tout couple $ (u,v)$ de vecteurs de $ E$, on a :

    $\displaystyle \Vert u \wedge v\Vert=\Vert u\Vert \; \Vert v\Vert \, \sin \theta$

    $ 0 \leq \theta \leq \pi$ est une mesure de l'angle non orienté des vecteurs $ u$ et $ v$.

Démonstration : La propriété 1 provient de la linéarité du produit scalaire et des propriétés analogues du déterminant.

Si $ u$ et $ v$ sont colinéaires, $ u\wedge v$ est nul par 1. Si le système $ (u,v)$ est libre, on peut le compléter en une base $ (u,v,w)$ de $ E$ et la relation $ 0 \not =\mathrm{det}(u,v,w)=\la u\wedge v,w \ra$ montre que $ u\wedge v$ n'est pas nul.

Les relations $ \la u\wedge v,u \ra=\mathrm{det}(u,v,u)=0$ et $ \la u\wedge v,v \ra=\mathrm{det}(u,v,v)=0$ montrent que $ u\wedge v$ est orthogonal à chacun des deux vecteurs $ u$ et $ v$.

La propriété 4 résulte de la relation $ \mathrm{det}(u,v,u\wedge v)=\Vert u\wedge v\Vert^2>0$ si $ (u,v)$ est un système libre.

Les composantes de $ u\wedge v$ s'obtiennent en développant le déterminant $ \mathrm{det}(u,v,x)$ par rapport à sa dernière colonne.

La relation 6 découle de l'identité algébrique :

\begin{multline*}
(u_2v_3-u_3v_2)^2+(u_3v_1-u_1v_3)^2+(u_1v_2-u_2v_1)^2
+(u_1v_1+u_2v_2+u_3v_3)^2\\
=(u_1^2+u_2^2+u_3^2) (v_1^2+v_2^2+v_3^2) \; .
\end{multline*}

La relation 7 découle de la précédente et de la relation $ \la u,v \ra= \Vert u\Vert \, \Vert v\Vert \, \cos\theta$.$ \square$

Adjoint d'un endomorphisme

Soit $ E$ un espace vectoriel euclidien et $ f$ un endomorphisme de $ E$ (i.e. une application linéaire de $ E$ dans $ E$). Pour tout vecteur $ x$ de $ E$, l'application $ y \mapsto \langle x,f(y)\rangle$ de $ E$ dans $ \mathbb{R}$ est une forme linéaire sur $ E$. Il existe donc un vecteur $ f^*(x)$ de $ E$ et un seul qui vérifie $ \langle x,f(y)\rangle \; =\; \langle f^*(x),y\rangle $ pour tout $ y\in E$. On vérifie facilement que l'application $ f^*$ de $ E$ dans $ E$ ainsi définie est linéaire. C'est donc un endomorphisme de $ E$, appelé endomorphisme adjoint de $ f$.

Définition 15   Soit $ E$ un espace vectoriel euclidien et $ f$ un endomorphisme de $ E$. On appelle endomorphisme adjoint de $ f$ et on note $ f^*$ l'unique endomorphisme de $ E$ vérifiant

$\displaystyle \langle x,f(y)\rangle \; =\; \langle f^*(x),y\rangle $

pour tout couple $ (x,y)$ de vecteurs de $ E$.

Proposition 33   Propriétés de l'adjoint :
  1. L'application de l'espace vectoriel $ \mathcal L (E)$ des endomorphismes de $ E$ dans $ \mathcal L (E)$ qui à un endomorphisme $ f$ associe son adjoint $ f^*$ est linéaire et involutive : $ (f^*)^*=f$.
  2. Si $ f$ et $ g$ sont deux endomorphismes de $ E$, $ (f\circ g)^*=g^* \circ f^*$.
  3. La matrice de $ f^*$ dans toute base orthonormée de $ E$ est la transposée de la matrice de $ f$ dans cette même base.
  4. Le noyau de $ f^*$ est l'orthogonal de l'image de $ f$.
  5. L'image de $ f^*$ est l'orthogonal du noyau de $ f$.
  6. Les endomorphismes $ f$ et $ f^*$ ont même rang.

Démonstration : La linéarité vient de la relation

$\displaystyle \la x,(af+bg)(y) \ra
=a \la x,f(y) \ra+b \la x,g(y) \ra
=\la af^*(x)+bg^*(x),y \ra$

$ f$ et $ g$ sont deux endomorphismes de $ E$, $ a$ et $ b$ deux réels, $ x$ et $ y$ deux vecteurs quelconques de $ E$.

La relation $ (f^*)^*=f$ vient de même de

$\displaystyle \la x,(f^*)^*(y) \ra
=\la f^*(x),y \ra
=\la x,f(y) \ra \; $

et la relation $ (f\circ g)^*=g^* \circ f^*$ de

$\displaystyle \la x,(f\circ g)(y) \ra
=\la x,f(g(y)) \ra
=\la f^*(x),g(y) \ra
=\la g^*(f^*(x)),y \ra \; .$

La matrice $ A$ d'un endomorphisme $ f$ dans une base orthonormée $ (e_1,\dots,e_n)$ a pour coefficients

$\displaystyle a_{i,j}=\la e_i,f(e_j) \ra \; .$

La matrice $ B$ de l'endomorphisme $ f^*$ dans cette même base a donc pour coefficients

$\displaystyle b_{i,j}=\la e_i,f^*(e_j) \ra
= \la f(e_i),e_j \ra
=a_{j,i}$

d'où $ B=\tr{A}$.

Un vecteur $ x$ de $ E$ appartient au noyau de $ f^*$ si et seulement si $ f^*(x)=0$, i.e. si et seulement si $ \la f^*(x),y \ra=\la x,f(y) \ra =0$ pour tout vecteur $ y$ de $ E$, i.e. si et seulement si $ x$ est orthogonal à l'image de $ f$.

En remplaçant $ f$ par $ f^*$ dans la relation $ \mathrm{Ker}(f^*)=\mathrm{Im}(f)^\perp$, on obtient $ \mathrm{Im}(f^*)^\perp = \mathrm{Ker}((f^*)^*)=\mathrm{Ker}(f)$, d'où $ \mathrm{Ker}(f)^\perp=(\mathrm{Im}(f^*)^\perp)^\perp=\mathrm{Im}(f^*)$.

Le rang d'un endomorphisme est la dimension de son image. Mais :

$\displaystyle \dim(\mathrm{Im}(f^*))=\dim((\mathrm{Ker}(f))^\perp)
=\dim(E)-\dim(\mathrm{Ker}(f))
=\dim(\mathrm{Im}(f)) \; .$

Les endomorphismes $ f$ et $ f^*$ ont donc même rang. On retrouve ainsi, dans le cas des matrices réelles carrées, le fait qu'une matrice et sa transposée ont même rang.

$ \square$

Endomorphismes symétriques

Proposition 34   Soit $ f$ un endomorphisme d'un espace vectoriel euclidien $ E$. Les propriétés suivantes sont équivalentes :
(i)
$ \langle f(x),y\rangle \; =\; \langle x,f(y)\rangle $ pour tout couple $ (x,y)$ de vecteurs de $ E$ ;
(ii)
la matrice de $ f$ dans toute base orthonormale de $ E$ est symétrique ;
(iii)
il existe une base orthonormale de $ E$ dans laquelle la matrice de $ f$ est symétrique ;
(iv)
$ f=f^*$.
Un endomorphisme vérifiant ces propriétés est dit symétrique ou auto-adjoint.

Démonstration : L'équivalence de $ (i)$ et $ (iv)$ vient de la définition de l'adjoint, l'implication $ (ii)\Rightarrow (iii)$ est évidente et les implications $ (iii)\Rightarrow (iv)$ et $ (iv)\Rightarrow (ii)$ viennent de la proposition 33.$ \square$

Proposition 35   L'ensemble des endomorphismes symétriques d'un espace vectoriel euclidien $ E$ de dimension $ n$ est un sous-espace vectoriel de dimension $ \dfrac{n(n+1)}{2}$ de l'espace des endomorphismes de $ E$.

Démonstration : La stabilité par combinaisons linéaires de l'ensemble des endomorphismes symétriques vient de la linéarité de l'application $ f \mapsto f^*$. Soit $ \mathcal B$ une base orthonormée de $ E$. L'application qui à tout endomorphisme $ f$ de $ E$ associe sa matrice dans la base $ \mathcal B$ est un isomorphisme de $ \mathcal L (E)$ sur $ M_n(\mathbb{R})$ qui induit un isomorphisme du sous-espace des endomorphismes symétriques de $ E$ sur l'espace des matrices carrées symétriques d'ordre $ n$. Ce dernier est de dimension $ \dfrac{n(n+1)}{2}$, puisqu'une matrice symétrique $ A=(a_{i,j})$ est déterminée par les coefficients $ a_{i,j}$ pour $ 1\leq i \leq j \leq n$.$ \square$

Remarque : le composé de deux endomorphismes symétriques $ f$ et $ g$ n'est en général pas symétrique ; plus précisément, il n'est symétrique que si ces endomorphismes commutent, puisque $ (f\circ g)^*=g^* \circ f^*=g\circ f$.


La proposition suivante résulte immédiatement de la proposition 33 :

Proposition 36   Le noyau et l'image d'un endomorphisme symétrique sont des sous-espaces vectoriels supplémentaires orthogonaux.

Exemple : projections et symétries orthogonales

Proposition 37   Une projection (resp. une symétrie) vectorielle est un endomorphisme symétrique si et seulement si c'est une projection (resp. une symétrie) orthogonale.

Démonstration : Soit $ p$ une projection sur un sous-espace vectoriel $ F$ d'un espace vectoriel euclidien $ E$ dans la direction d'un sous-espace $ G$, $ s$ la symétrie par rapport à $ F$ dans la direction $ G$. La relation $ s=2\, p-id_E$ montre que $ p$ est symétrique si et seulement si $ s$ l'est. Si $ p$ est symétrique, son noyau $ G$ et son image $ F$ sont supplémentaires orthogonaux d'après la proposition 36 : $ p$ est donc une projection orthogonale. Réciproquement, si $ p$ est une projection orthogonale, $ F$ et $ G$ sont supplémentaires orthogonaux et

$\displaystyle \la p(x),y \ra=\la p(x),p(y) \ra + \la p(x),y-p(y) \ra
= \la p(x),p(y) \ra$

pour tout couple $ (x,y)$ de vecteurs de $ E$, puisque $ p(x)\in F$ et $ y-p(y)\in G$ sont orthogonaux. En échangeant $ x$ et $ y$, on obtient de même $ \la p(x),p(y) \ra=\la x,p(y) \ra$, d'où $ \la p(x),y \ra=\la x,p(y) \ra$, ce qui montre que $ p$ est un endomorphisme symétrique.$ \square$

Formes quadratiques sur un espace vectoriel euclidien

Rappels

Une forme bilinéaire symétrique sur un espace vectoriel réel $ E$ est une application $ b$ de $ E \times E$ dans $ \mathbb{R}$ linéaire par rapport à chacun de ses arguments et symétrique :

pour tous vecteurs $ x,y,x_1,x_2,y_1,y_2$ de $ E$ et tous réels $ a,b$.


Une application $ q$ de $ E$ dans $ \mathbb{R}$ est une forme quadratique sur $ E$ s'il existe une forme bilinéaire symétrique $ b$ sur $ E$ telle que $ q(x)=b(x,x)$ pour tout vecteur $ x$ de $ E$. La forme bilinéaire symétrique $ b$, appelée forme polaire de $ q$, est alors uniquement déterminée, puisque

$\displaystyle b(x,y)=\dfrac12 [q(x+y)-q(x)-q(y)]=\dfrac14 [q(x+y)-q(x-y)] \; .$


Pour tout endomorphisme symétrique $ f$ de $ E$, l'application $ b$ : $ (x,y)\mapsto \la x,f(y) \ra$ de $ E \times E$ dans $ \mathbb{R}$ est une forme bilinéaire symétrique. Réciproquement :

Proposition 38   Pour toute forme bilinéaire symétrique $ b: E\times E \rightarrow \mathbb{R}$ sur un espace vectoriel euclidien $ E$, il existe un endomorphisme symétrique $ f$ de $ E$ et un seul tel que $ b(x,y)=\; \langle x,f(y)\rangle $ pour tout couple $ (x,y)$ de vecteurs de $ E$.

Démonstration : Pour tout vecteur $ x$ de $ E$, l'application $ y\mapsto b(x,y)$ de $ E$ dans $ \mathbb{R}$ est une forme linéaire sur $ E$. Il en résulte (proposition 31) qu'il existe un vecteur $ f(x)$ et un seul tel que $ b(x,y)=\la f(x),y \ra$ pour tout vecteur $ y$ de $ E$. Il résulte de la linéarité en $ x$ de $ b$ que $ f$ est linéaire et de la symétrie de $ b$ que $ f$ est symétrique.$ \square$

Corollaire 4   Pour toute forme quadratique $ q$ sur un espace vectoriel euclidien $ E$, il existe un endomorphisme symétrique $ f$ de $ E$ et un seul tel que $ q(x)=\langle x,f(x)\rangle $ pour tout vecteur $ x$ de $ E$.

Réduction des matrices symétriques réelles

Théorème 1   Tout endomorphisme symétrique d'un espace vectoriel euclidien est diagonalisable dans une base orthonormale : pour tout endomorphisme symétrique $ f$ d'un espace vectoriel euclidien $ E$, il existe une base orthonormale de $ E$ constituée de vecteurs propres de $ f$.

Corollaire 5   Soit $ E$ un espace vectoriel euclidien et $ b$ une forme bilinéaire symétrique sur $ E$. Alors il existe une base orthonormée $ (e_1,\dots,e_n)$ de $ E$ orthogonale pour $ b$ : $ b(e_i,e_j)=0$ pour tout $ i \not = j$.

Démonstration : D'après la proposition 38, il existe un endomorphisme symétrique $ f$ de $ E$ tel que $ b(x,y)=\la x,f(y) \ra$ pour tout couple $ (x,y)$ de vecteurs de $ E$. Soit $ (e_1,\dots,e_n)$ une base orthonormée de $ E$ constituée de vecteurs propres de $ f$ et $ \lambda_i$ les valeurs propres correspondantes. Alors :

$\displaystyle b(e_i,e_j)=\la e_i,f(e_j) \ra=\la e_i,\lambda_j e_j \ra=\lambda_j \la e_i,e_j \ra=0$

pour tout couple $ (i,j)$ tel que $ i \not = j$.$ \square$

Théorème 2   Toute matrice symétrique réelle est diagonalisable dans $ \mathbb{R}$. Plus précisément, pour toute matrice symétrique réelle $ A$, il existe une matrice orthogonale $ P$ et une matrice diagonale réelle $ D$ telles que $ A=\, ^t\!P\, D\, P$.

Lemme 2   Tout endomorphisme symétrique d'un espace vectoriel euclidien admet au moins une valeur propre réelle.

Démonstration : Soit $ f$ un endomorphisme symétrique d'un espace vectoriel euclidien $ E$, $ q$ la forme quadratique associée, $ S$ la sphère unité de $ E$. La fonction $ q$ est continue sur le compact $ S$, elle est donc bornée sur $ S$ et atteint son maximum $ \lambda$ en un point $ x$ de $ S$. On a $ q(z)\leq \lambda=q(x)=\la x,f(x) \ra$ pour tout $ z\in S$ et donc $ q(z)\leq \lambda \Vert z\Vert^2$ par homogénéité pour tout $ z\in E$, d'où, pour $ z=x+ty$ :

$\displaystyle \la x+ty, f(x+ty) \ra$ $\displaystyle =\la x,f(x) \ra +2\, t\, \la f(x),y \ra +t^2 \la y,f(y) \ra$    
  $\displaystyle \leq \lambda \Vert x+ty\Vert^2$    
  $\displaystyle =\lambda +2\, \lambda t \, \la x,y \ra + \lambda t^2 \Vert y\Vert^2$    

soit encore

$\displaystyle t^2\left( \lambda \Vert y\Vert^2-\la y,f(y) \ra \right) +2t\left( \lambda \la x,y \ra - \la f(x),y \ra \right) \geq 0$

pour tout $ y\in E$ et tout réel $ t$. Ce trinôme du second degré en $ t$ atteint son minimum en $ t=0$, sa dérivée est donc nulle en ce point, ce qui s'écrit $ \la f(x),y \ra=\lambda \la x,y \ra$ pour tout $ y\in E$, ou encore $ \la f(x)-\lambda x,y\ra=0$ pour tout $ y\in E$, et implique $ f(x)=\lambda x$.$ \square$

Remarque : on vérifie immédiatement que la valeur propre $ \lambda$ introduite dans cette démonstration est la plus grande valeur propre de $ f$.

Lemme 3   Soit $ E$ un espace vectoriel euclidien, $ f$ un endomorphisme symétrique de $ E$, $ E_\lambda$ le sous-espace propre de $ f$ associé à une valeur propre $ \lambda$. Alors l'orthogonal $ E_\lambda^\perp$ de $ E_\lambda$ est stable par $ f$.

Démonstration : Soit $ y\in E_\lambda^\perp$. Pour tout $ x\in E_\lambda$, on a:

$\displaystyle \la f(y),x \ra=\la y,f(x) \ra=\la y,\lambda x \ra=\lambda \la y,x \ra=0 \; ,$

d'où $ f(y)\in E_\lambda^\perp$.$ \square$

Démonstration du théorème 1 :  On démontre le théorème par récurrence sur la dimension $ n$ de $ E$. Pour $ n=1$, tout vecteur unitaire de $ E$ est vecteur propre de tout endomorphisme et constitue une base orthonormée de $ E$. Supposons le théorème vrai pour tout espace vectoriel euclidien de dimension $ \leq n-1$. Soit $ E$ un espace vectoriel euclidien de dimension $ n$ et $ f$ un endomorphisme symétrique de $ E$. D'après le lemme 2, $ f$ admet une valeur propre réelle $ \lambda$. Soit $ E_\lambda$ l'espace propre associé. D'après le lemme 3, l'orthogonal $ E_\lambda^\perp$ de $ E_\lambda$ est un sous-espace vectoriel de $ E$ de dimension $ <n$ stable par $ f$. La restriction de $ f$ à $ E_\lambda^\perp$ est un endomorphisme symétrique de $ E_\lambda^\perp$. Par l'hypothèse de récurrence, il existe une base orthonormée de $ E_\lambda^\perp$ constituée de vecteurs propres de $ f$. En la complétant par une base orthonormée de $ E_\lambda$, on obtient une base orthonormée de $ E$ constituée de vecteurs propres de $ f$. $ \square$

Corollaire 6   Une matrice réelle symétrique est positive (resp. définie positive) si et seulement si toutes ses valeurs propres sont positives (resp. strictement positives).

Démonstration : Soit $ A$ une matrice réelle symétrique d'ordre $ n$. D'après le théorème 2, il existe une matrice orthogonale $ P$ et une matrice diagonale réelle $ D$, de coefficients diagonaux les valeurs propres $ \lambda_i$ de $ A$, telles que $ A=\, ^t\!P\, D\, P$. On a alors, pour tout vecteur colonne $ X$ de $ \mathbb{R}^n$ :

$\displaystyle \tr{X}A X=\tr{X}\tr{P}DPX=\tr{Y}DY=\sum_{i=1}^n \lambda_i y_i^2$

en posant $ Y=PX=\tr{(y_1,\dots,y_n)}$. Le corollaire en résulte immédiatement, en remarquant que $ X$ est nulle si et seulement si $ Y$ l'est.$ \square$


         © UJF Grenoble, 2011                              Mentions légales