Matrices et applications linéaires

Soient $ E$ et $ F$ deux espaces vectoriels de dimension finie, munis respectivement des bases $ (b_1,\ldots,b_n)$ et $ (c_1,\ldots,c_m)$.
Une application linéaire $ f$ est déterminée par les images des vecteurs $ b_1,\dots,b_n$. Ces images sont des combinaisons linéaires $ c_1,\ldots,c_m$ : pour tout $ j=1,\ldots,n$,

$\displaystyle f(b_j) = \sum_{i=1}^m a_{i,j} c_i\;.
$

Les coordonnées $ a_{i,j}$ de ces vecteurs dans la base $ (c_1,\ldots,c_m)$, rangés en $ n$ colonnes, forment la matrice de l'application $ f$, relative aux bases considérées.

\begin{displaymath}
\begin{array}{ccccc\vert cl}
\multicolumn{5}{c\vert}{\mbox{d...
...dots&\\
a_{m,1}&\cdots&a_{m,j}&\cdots&a_{m,n}&c_m&
\end{array}\end{displaymath}

Les opérations sur les applications linéaires se traduisent en des opérations analogues sur les matrices. Soient $ f$, $ g$ deux applications linéaires de $ E$ dans $ F$ et $ \lambda$, $ \mu$ deux réels. Si les matrices de $ f$ et $ g$ (relatives aux mêmes bases au départ et à l'arrivée) sont $ A$ et $ B$, alors la matrice de $ \lambda f+\mu g$ est $ \lambda A+\mu B$. La composée de deux applications linéaires est encore une application linéaire. Sa matrice est le produit des matrices de $ f$ et $ g$.

Proposition 4   Soient $ E,F,G$ trois espaces vectoriels, $ f$ une application linéaire de $ E$ dans $ F$ et $ g$ une application linéaire de $ F$ dans $ G$.

\begin{displaymath}
\begin{array}{ccccl}
&f&&g&\\
E&\longrightarrow&F&\longrigh...
...\longmapsto&f(u)&\longmapsto&g\circ f(u)=g(f(u))\;.
\end{array}\end{displaymath}

Soient $ (b_1,\ldots,b_n)$ une base de $ E$, $ (c_1,\ldots,c_m)$ une base de $ F$ et $ (d_1,\ldots,d_p)$ une base de $ G$.
Soit $ A$ la matrice de $ f$ relative aux bases $ (b_1,\ldots,b_n)$ et $ (c_1,\ldots,c_m)$.
Soit $ B$ la matrice de $ g$ relative aux bases $ (c_1,\ldots,c_m)$ et $ (d_1,\ldots,d_p)$. Alors la matrice de $ g\circ f$ relative aux bases $ (b_1,\ldots,b_n)$ et $ (d_1,\ldots,d_p)$ est le produit $ BA$.

Remarquez que l'ordre dans lequel s'effectue le produit est l'ordre dans lequel s'écrit la composition.

   matrice de $\displaystyle g\circ f = ($matrice de $\displaystyle g) ($matrice de $\displaystyle f)\;.
$

Démonstration : L'image par $ g\circ f$ des vecteurs $ b_1,\ldots,b_n$ se calcule en prenant l'image par $ g$ des vecteurs $ f(b_1),\ldots,f(b_n)$. On calcule les coordonnées de ces images dans la base $ (d_1,\ldots,d_p)$ en effectuant le produit par la matrice de $ g$, des vecteurs exprimant $ f(b_1),\ldots,f(b_n)$ dans la base $ (c_1,\ldots,c_m)$, qui sont les vecteurs colonnes de $ A$. Effectuer successivement le produit de $ B$ par chacun des vecteurs colonnes de $ A$ revient à calculer le produit de $ B$ par $ A$. $ \square$

Pour les endomorphismes (les espaces de départ et d'arrivée sont les mêmes), nous conviendrons toujours de choisir la même base au départ et à l'arrivée.

Proposition 5   Soit $ E$ un espace vectoriel, muni de la base $ (b_1,\ldots,b_n)$, et $ f$ une application linéaire de $ E$ dans lui-même. L'application $ f$ est un automorphisme si et seulement si la matrice de $ f$ dans la base $ (b_1,\ldots,b_n)$ est inversible. Si c'est le cas, la matrice de $ f^{-1}$ est l'inverse de la matrice de $ f$.

Démonstration : Observons d'abord que la matrice de l'application identique est la matrice identité, quelle que soit la base. Si l'application $ f$ est bijective, alors sa réciproque $ f^{-1}$ est l'unique application dont la composée avec $ f$ est l'application identique.

$\displaystyle f^{-1}\circ f = f\circ f^{-1} =I_E\;.
$

Si $ A$ est la matrice de $ f$ et $ B$ la matrice de $ f^{-1}$, la proposition 4 entraîne que $ A B=B A=I_n$.

Réciproquement si $ A$ est inversible, alors $ A^{-1}$ définit une application linéaire unique de $ E$ dans $ E$. La composée de cette application avec $ f$ a pour matrice $ I_n$ : c'est l'application identique. Donc cette application est la réciproque de $ f$. $ \square$

Un automorphisme de $ E$ est une application linéaire qui envoie une base de $ E$ sur une autre base. Effectuer un changement de base (remplacer une base par une autre) revient à prendre l'image par l'automorphisme qui envoie la nouvelle base sur l'ancienne, donc le produit par la matrice de cet automorphisme.

Proposition 6   Soit $ E$ un espace vectoriel. Soient $ (b_1,\ldots,b_n)$ et $ (c_1,\ldots,c_n)$ deux bases de $ E$. Notons $ P$ la matrice dans la base $ (b_1,\ldots,b_n)$ de l'application qui à $ b_i$ associe $ c_i$ (nouveaux vecteurs en fonction des anciens). Soient $ x_1,\ldots,x_n$ les coordonnées de $ v$ dans la base $ (b_1,\ldots,b_n)$ (anciennes) et $ y_1,\ldots,y_n$ les coordonnées de $ v$ dans la base $ (c_1,\ldots,c_n)$ (nouvelles).

$\displaystyle v=x_1 b_1+\cdots+x_n b_n=y_1 c_1+\cdots+y_n c_n\;.
$

Alors le vecteur $ (y_j)_{j=1,\ldots, n}$ est le produit de la matrice $ P^{-1}$ par le vecteur $ (x_i)_{i=1,\ldots, n}$.

$\displaystyle \left(\begin{array}{c}
y_1\\
\vdots\\
y_n
\end{array}\right)
= P^{-1}
\left(\begin{array}{c}
x_1\\
\vdots\\
x_n
\end{array}\right)
\;.
$

Démonstration : Notons $ \phi$ l'automorphisme de $ E$ qui à $ b_i$ associe $ c_i$, pour tout $ i=1,\ldots,n$. Ecrivons :
$\displaystyle v$ $\displaystyle =$ $\displaystyle y_1 c_1+\cdots+y_n c_n$  
  $\displaystyle =$ $\displaystyle y_1 \phi(b_1)+\cdots+y_n \phi(b_n)\;.$  

Par définition, les coordonnées de $ \phi(b_j)$ dans la base $ b_i$ forment la $ j$-ième colonne de la matrice $ P=(p_{i,j})$. Donc :
$\displaystyle v$ $\displaystyle =$ $\displaystyle \displaystyle{ \sum_{j=1}^n y_j
\left(\sum_{i=1}^n p_{i,j} b_i\right)}$  
  $\displaystyle =$ $\displaystyle \displaystyle{ \sum_{i=1}^n
\left(\sum_{j=1}^n p_{i,j} y_j\right) b_i}$  

Comme les coordonnées dans la base $ (b_1,\ldots,b_n)$ sont uniques, on en déduit, pour tout $ i=1,\ldots,n$ :

$\displaystyle x_i = \sum_{j=1}^n p_{i,j} y_j\;,
$

donc $ (x_i)=P(y_j)$, d'où le résultat en multipliant à gauche par $ P^{-1}$.$ \square$

La matrice $ P$ s'appelle la matrice de passage. Dans un changement de base, nous conviendrons toujours de noter $ P$ la matrice qui donne les nouveaux vecteurs en fonction des anciens. Voici un exemple. Munissons $ E=\mathbb{R}^3$, des deux bases suivantes.

$\displaystyle (b_1,b_2,b_3)=((1,0,0),(0,1,0),(0,0,1))$   et$\displaystyle \quad
(c_1,c_2,c_3)=((1,0,0),(1,1,0),(1,1,1))\;.
$

Voici la matrice de passage $ P$ et son inverse.

$\displaystyle P = \left(\begin{array}{rrr}
1&1&1\\
0&1&1\\
0&0&1
\end{array}\...
...-1} = \left(\begin{array}{rrr}
1&-1&0\\
0&1&-1\\
0&0&1
\end{array}\right)\;.
$

Si un vecteur $ v$ a pour coordonnées $ x,y,z$ dans la base canonique $ (b_1,b_2,b_3)$, alors ses coordonnées dans la base $ (c_1,c_2,c_3)$ s'obtiennent en effectuant le produit :

$\displaystyle \left(\begin{array}{rrr}
1&-1&0\\
0&1&-1\\
0&0&1
\end{array}\ri...
...\end{array}\right)
=
\left(\begin{array}{c}
x-y\\
y-z\\
z
\end{array}\right)
$

Constatez que :

$\displaystyle (x-y)(1,0,0)+(y-z)(1,1,0)+z(1,1,1)=(x,y,z)\;.
$

On peut appliquer ce qui précède pour trouver la matrice d'un endomorphisme quelconque dans la nouvelle base : c'est la formule de changement de base.

Théorème 2   Soit $ E$ un espace vectoriel, soient $ (b_1,\ldots,b_n)$ et $ (c_1,\ldots,c_n)$ deux bases de $ E$. Soit $ f$ un endomorphisme de $ E$, et $ A$ sa matrice dans la base $ (b_1,\ldots,b_n)$. Soit $ P$ la matrice de l'application linéaire qui à $ b_i$ associe $ c_i$, pour tout $ i=1,\ldots,n$.

La matrice de $ f$ dans la base $ (c_1,\ldots,c_n)$ est $ P^{-1} A P$.

Démonstration : Notons $ \phi$ l'application qui à $ b_i$ associe $ c_i$. La matrice de $ f$ dans la base $ (c_1,\ldots,c_n)$ a pour vecteurs colonnes les images des vecteurs $ c_1,\ldots,c_n$. Pour calculer $ f(c_i)$, on peut calculer $ f(\phi(b_i))=f\circ\phi(b_i)$. Donc les coordonnées des vecteurs $ f(c_i)$ dans la base $ (b_1,\ldots,b_n)$ sont les colonnes de la matrice de $ f\circ \phi$, qui est $ AP$. D'après la proposition 6, pour obtenir les coordonnées de ces vecteurs dans la base $ (c_1,\ldots,c_n)$, il faut multiplier à gauche par la matrice $ P^{-1}$, d'où le résultat.$ \square$

Reprenons l'exemple en dimension 3 des deux bases :

$\displaystyle (b_1,b_2,b_3)=((1,0,0),(0,1,0),(0,0,1))$   et$\displaystyle \quad
(c_1,c_2,c_3)=((1,0,0),(1,1,0),(1,1,1))\;.
$

Considérons l'application de $ \mathbb{R}^3$ dans $ \mathbb{R}^3$ définie par :

$\displaystyle f\;:\quad(x,y,z)\longmapsto (x-z,2x-3y+z,y-2z)\;.
$

Sa matrice dans la base canonique $ (b_1,b_2,b_3)$ est :

$\displaystyle A = \left(\begin{array}{rrr}
1&0&-1\\
2&-3&1\\
0&1&-2
\end{array}\right)
$

La matrice de $ f$ dans la base $ (c_1,c_2,c_3)$ est :

$\displaystyle P^{-1}AP = \left(\begin{array}{rrr}
-1&2&0\\
2&-2&1\\
0&1&-1
\end{array}\right)
$

L'image par $ f$ du vecteur $ c_2=(1,1,0)$ est le vecteur $ (1,-1,1)=2c_1-2c_2+c_3$. Les coordonnées $ 2,-2,1$ figurent dans la seconde colonne de $ P^{-1}AP$.

Définition 5   Deux matrices $ A$ et $ B$ de $ {\cal M}_n$ sont dites semblables si et seulement si il existe une matrice inversible $ P\in{\cal M}_n$ telle que :

$\displaystyle B=P^{-1}AP\;.
$

Le théorème 2 affirme que deux matrices sont semblables si et seulement si elles représentent le même endomorphisme dans des bases différentes. Il se généralise à des applications linéaires quelconques, comme suit.

Théorème 3   Soit $ E$ un espace vectoriel, soient $ (b_1,\ldots,b_n)$ et $ (b'_1,\ldots,b'_n)$ deux bases de $ E$. Soit $ F$ un autre espace vectoriel, soient $ (c_1,\ldots,c_m)$ et $ (c'_1,\ldots,c'_m)$ deux bases de $ F$. Soit $ f$ une application linéaire de $ E$ dans $ F$, et $ A\in{\cal M}_{m,n}$ sa matrice relative aux bases $ (b_1,\ldots,b_n)$ et $ (c_1,\ldots,c_m)$. Soit $ P\in{\cal M}_n$ la matrice de l'application linéaire qui à $ b_i$ associe $ b'_i$, pour tout $ i=1,\ldots,n$. Soit $ Q\in{\cal M}_m$ la matrice de l'application linéaire qui à $ c_i$ associe $ c'_i$, pour tout $ i=1,\ldots,n$.

La matrice de $ f$ relative aux bases $ (b'_1,\ldots,b'_n)$ et $ (c'_1,\ldots,c'_n)$ est $ Q^{-1} A P$.

La démonstration est pratiquement la même que celle du théorème 2, avec des notations plus lourdes. Nous l'omettons.

Définition 6   Deux matrices $ A$ et $ B$ de $ {\cal M}_{m,n}(\mathbb{R})$ sont dites équivalentes si et seulement si il existe deux matrices inversibles $ P\in{\cal M}_n$ et $ Q\in{\cal M}_m$ telles que :

$\displaystyle B=Q^{-1}AP\;.
$

Le théorème 3 affirme que deux matrices sont équivalentes si et seulement si elles peuvent représenter la même application linéaire, à un changement de base près dans les espaces de départ et d'arrivée.

         © UJF Grenoble, 2011                              Mentions légales