Applications

Puissances d'une matrice.
Si deux matrices $ A$ et $ B$ représentent le même endomorphisme dans deux bases différentes, alors il en est de même de $ A^n$ et $ B^n$, pour tout $ n\in\mathbb{N}$, et également de $ A^{-n}$ et $ B^{-n}$ si cet endomorphisme est inversible.

$\displaystyle P^{-1}AP=B\;\Longrightarrow\; P^{-1}A^nP=B^n\;,\quad\forall n\in\mathbb{N}\;.
$

La puissance $ n$-ième d'une matrice diagonale s'écrit immédiatement. Pour un bloc de Jordan, ce n'est pas beaucoup plus compliqué. Nous vous laissons vérifier que pour $ k=1,\ldots,n\!-\!1$, $ J_n^k$ est la matrice dont les termes de la forme $ a_{i,i+k}$ sont égaux à $ 1$, les autres étant nuls. Pour $ k\geqslant n$, $ J^k=0$. Par la formule du binôme de Newton, on en déduit l'expression de $ (\lambda I+J)^k$. On peut donc écrire explicitement la puissance $ k$-ième d'une réduction de Jordan. Cependant, nous ne vous conseillons pas cette méthode, car il est plus facile d'utiliser le théorème de Cayley-Hamilton : $ P_A(A)=0$. Reprenons notre premier exemple, une matrice $ A$ dont les 3 valeurs propres sont $ 1,-1,2$. Le polynôme caractéristique est $ -X^3-2X^2+X+2$. Vous en déduisez donc que $ -A^3-2A^2+A+2I$ est la matrice nulle. Non seulement $ A^3$, mais toutes les puissances de $ A$ sont des combinaisons linéaires des trois matrices $ I, A, A^2$. En effet :

$\displaystyle A^3=-2A^2+A+2I\;\Longrightarrow A^4=-2A^3+A^2+2A=5A^2-4I\;.
$

Ainsi vous pouvez calculer de proche en proche toutes les puissances positives de $ A$. Mais aussi :

$\displaystyle A(A^2+2A-I)=2I\;\Longrightarrow\; A^{-1}=\frac{1}{2}(A^2+2A-I)\;,
$

donc toutes les puissances négatives de $ A$ sont aussi des combinaisons linéaires de $ I, A, A^2$. Algorithme de calcul du polynôme minimal.
Il y a deux manières de voir un polynôme annulateur : comme un polynôme de matrices qui s'annule pour $ X=A$, ou bien comme une combinaison linéaire nulle des puissances de $ A$ : le théorème de Cayley-Hamilton affirme que la famille des $ (n+1)$ matrices $ (I,A,A^{2},\dots,A^{n})$, considérée comme famille dans un espace vectoriel de dimension $ n^{2}$, est une famille liée. Ceci est la base de l'algorithme de calcul du polynôme minimal par la méthode du pivot de Gauss, qui est utilisé dans les logiciels. Toute combinaison linéaire nulle et non triviale des matrices $ (I,A,A^{2},\dots,A^{n})$ correpond à un polynôme annulateur de $ A$. Si nous effectuons cette recherche avec des puissances de $ A$ les plus petites possibles, comme il existe un et un seul polynôme annulateur unitaire de degré minimal (proposition 4), nous en déduisons un moyen systématique pour trouver le polynôme minimal de $ A$. Une manière naturelle de procéder est de considérer les matrices $ I,A\dots,A^n$ comme vecteurs de $ \mathbb{R}^{n^{2}}$, de les disposer en ordre croissant des puissances et d'effectuer la mise sous forme échelonnée de ces $ (n+1)$ vecteurs, en s'interdisant de permuter des lignes, en ne s'autorisant que des permutations de colonnes pour pouvoir avancer dans la recherche de pivots non nuls par la méthode de Gauss. Quand la mise sous forme échelonnée est faite, la première ligne qui ne présente que des 0, (à un coefficient scalaire multiplicatif près) contient la combinaison linéaire des vecteurs de départ faisant intervenir les plus basses puissances possibles de $ A$. Elle contient donc le polynôme minimal. Pour mémoriser les opérations effectuées pendant la mise sous forme échelonnée par la méthode de Gauss, ajoutons une dernière colonne contenant $ 1,X,X^{2}\dots$ et effectuons aussi sur cette colonne les opérations élémentaires de la méthode de Gauss. Nous aurons alors dans cette colonne pour la première ligne ne contenant que des 0, à un coefficient multiplicatif près, l'expression du polynôme minimal de $ A$, non factorisé. Voici un exemple. Soit

$\displaystyle A=\left(\begin{array}{ccc}
0 & 1 & 0\\
-1 & 2 & 0\\
-1 & 1 & 1\...
...begin{array}{ccc}
-2 & 3 & 0\\
-3 & 4 & 0\\
-3 & 3 & 1\end{array}\right)
\;.
$

Formons le premier tableau de la méthode. Pour $ i$ allant de 0 à $ 3$, on trouve sur la ligne $ i$ les 9 coefficients de la matrice $ A^i$, suivis de $ X^i$.

\begin{displaymath}
\begin{array}{\vert r\vert r\vert r\vert r\vert r\vert r\ver...
...& 3 & 0 & -3 & 4 & 0 & -3 & 3 & 1 & X^{3}\\
\hline
\end{array}\end{displaymath}

Dans le second tableau, des combinaisons linéaires de lignes annulent les coefficients de la première colonne après le premier.

\begin{displaymath}
\begin{array}{\vert r\vert r\vert r\vert r\vert r\vert r\ver...
...3 & 0 & -3 & 6 & 0 & -3 & 3 & 3 & X^{3}+2\\
\hline
\end{array}\end{displaymath}

Dans le troisième tableau, on annule les coefficients de la seconde colonne, après les 2 premiers.

\begin{displaymath}
\begin{array}{\vert r\vert r\vert r\vert r\vert r\vert r\ver...
... 0 & 0 & 0 & 0 & 0 & 0 & 0 & (X^{3}+2)-3X\\
\hline
\end{array}\end{displaymath}

Donc $ \pi(X)=X^{2}-2X+1=(X-1)^{2}$ est le polynôme minimal de $ A$. Nous obtenons aussi que $ X^{3}-3X+2=(X+2)(X-1)^{2}$ est annulateur, ce qui n'est pas très utile : le facteur $ (X+2)$ est parasite et nous ne cherchons pas à utiliser l'information (sans intérêt pour nous) associée. Au vu du polynôme minimal, nous voyons que $ A$ admet $ 1$ comme seule valeur propre et la réduction de Jordan de $ A$ fera intervenir un bloc $ J_2$ et un bloc $ J_1$. La mise sous forme de Jordan est particulièrement simple ici parce que $ \mathrm{Ker}(A-\lambda I)^{2}$ pour $ \lambda=1$ est $ E=\mathbb{R}^{3}$ tout entier. Prenons donc un vecteur dans $ E$, «au hasard» $ (1,0,0)$, formons $ A-I=\left(\begin{array}{ccc}
-1 & 1 & 0\\
-1 & 1 & 0\\
-1 & 1 & 0\end{array}\right)$ d'où $ (A-I)\left(\begin{array}{c}
1\\
0\\
0\end{array}\right)=\left(\begin{array}{c}
-1\\
-1\\
-1\end{array}\right)$ et $ (A-I)\left(\begin{array}{c}
-1\\
-1\\
-1\end{array}\right)=0$. Donc $ \left((-1,-1,-1),(1,0,0)\right)$ peut être choisi pour constituer la base associée au bloc de longueur $ 2$. En lui ajoutant le vecteur $ (0,0,1)$, vecteur propre évident, non colinéaire à $ (-1,-1,-1)$, nous savons que dans la base $ \left((-1,-1,-1),(1,0,0),(0,0,1)\right)$ l'endomorphisme associé à $ A$ dans la base canonique de $ \mathbb{R}^{3}$ sera représenté par

$\displaystyle T=P^{-1}AP=\left(\begin{array}{ccc}
1 & 1 & 0\\
0 & 1 & 0\\
0 & 0 & 1\end{array}\right)$   où$\displaystyle \quad
P=\left(\begin{array}{ccc}
-1 & 1 & 0\\
-1 & 0 & 0\\
-1 & 0 & 1\end{array}\right)\;.$

Systèmes différentiels linéaires.
La réduction des endomorphismes est très utilisée dans la résolution des systèmes linéaires d'équations différentielles :

$\displaystyle Y'(t) = A Y(t)\;,$ (E)

$ Y$ est une fonction (inconnue) de $ \mathbb{R}$ dans $ \mathbb{R}^n$, $ A\in{\cal M}_{n\times n}(\mathbb{R})$ est une matrice de réels, carrée de taille $ n$. Nous allons voir comment, d'abord d'un point de vue théorique. Dans le cas particulier $ n=1$, la matrice est réduite à un scalaire $ a$, et la solution de $ y'(t)=ay(t)$, partant de $ y_0$ à l'instant 0 est :

$\displaystyle y(t) = \mathrm{e}^{at}y_0\;.
$

On peut définir $ \mathrm{e}^{at}$ comme la somme de la série entière, de rayon de convergence infini, $ \sum a^nt^n/n!$. Sa dérivée est :

$\displaystyle \sum_{n\geqslant 1} \frac{t^{n-1}}{(n\!-\!1)!}a^n =
a\sum_{m\geqslant 0} \frac{t^m}{m!}a^m \;.
$

Cette écriture formelle reste valable en dimension $ n$. Pour trouver une solution à l'équation (E), il suffit d'écrire de manière analogue
$ Y(t) = (\sum (t^n/n!)A^n)Y(0)$. Encore faut-il s'assurer que cette série entière, à coefficients matriciels, converge, ce que nous admettrons.

Proposition 11   Soit $ M\in{\cal M}_{n\times n}(\mathbb{R})$ une matrice carrée. La série suivante converge dans $ {\cal M}_{n\times n}(\mathbb{R})$ :

$\displaystyle I+M+\frac{1}{2!} M^2+\cdots+\frac{1}{k!} M^k+ \cdots\;.
$

La somme de cette série est appelée exponentielle de la matrice $ M$ et notée $ \exp(M)$.

L'exponentielle de matrice a des propriétés comparables à l'exponentielle ordinaire. En particulier :

Proposition 12   Si deux matrices $ M_1$ et $ M_2$ commutent, alors :

$\displaystyle \exp(M_1+M_2) = \exp(M_1) \exp(M_2)\;.
$

La propriété qui nous intéresse est la suivante :

Proposition 13   Soit $ A\in {\cal M}_{d\times d}(\mathbb{R})$. Alors :

$\displaystyle \frac{\mathrm{d}}{\mathrm{d}t} \exp(t A ) = A \exp(t A )\;.
$

Il s'ensuit immédiatement que $ Y(t) = \exp(t A)y_0$ est solution de (E), pour $ Y(0)=y_0$. Le résultat suivant relie les coefficients de $ \exp(t A)$ aux valeurs propres de la matrice $ A$.

Théorème 8   Soit $ A\in{\cal M}_{n\times n}(\mathbb{R})$. Notons $ \lambda_1,
\ldots,\lambda_k$ les valeurs propres de $ A$ (réelles ou complexes), et pour tout $ i=1,\ldots,k$, notons $ m_i$ la multiplicité de $ \lambda_i$ dans le polynôme minimal de $ A$. Pour tout $ j=0,\ldots,m_i\!-\!1$, notons $ f_{i,j}$ la fonction (réelle ou complexe), définie par :

$\displaystyle f_{i,j}(t) = t^j \mathrm{e}^{\lambda_i t}\;.
$

Alors tous les coefficients de la matrice $ \exp(t A)$, de même que ceux de toute solution de (E) sont combinaison linéaire des $ f_{i,j}(t) ,\;i=1,\ldots,k ,\;j=0,\ldots,m_i\!-\!1$.

Démonstration : Nous utiliserons la réduction de Jordan de la matrice $ A$ :

$\displaystyle J(A)= P^{-1}AP\;.
$

La matrice $ J(A)$ est une matrice diagonale par blocs. À chaque valeur propre $ \lambda_i$ de $ A$ est associé un bloc $ B_i$, qui est la somme de $ \lambda_iI$ et d'un bloc nilpotent $ N_i$ dont la puissance $ m_i$-ième est nulle. Sur la définition de l'exponentielle, il est facile de vérifier que :

$\displaystyle \exp(PMP^{-1}) = P\exp(M) P^{-1}\;.
$

De plus si $ M$ est diagonale par blocs, alors $ \exp(M)$ l'est aussi et ses blocs sont les exponentielles des blocs de $ M$. Ces observations montrent que les coefficients de $ \exp(t A)$ sont des combinaisons linéaires des coefficients des $ \exp(t B_i)$. Or :

$\displaystyle \exp(t B_i) = \exp(\lambda_it I + t N_i)
= \exp(\lambda_it I)\exp(t N_i) = \mathrm{e}^{\lambda_it}\exp(t N_i)\;.
$

La matrice $ N_i$ est constituée de blocs de Jordan $ J_m$ de dimension $ m\leqslant m_i$. On obtient :

\begin{displaymath}
\exp(t J_m) =
\left(
\begin{array}{ccccc}
1&t&\frac{t^2}{2}...
...&\frac{t^2}{2}\\
&&&&t\\
0&\ldots&&0&1
\end{array}\right)\;,
\end{displaymath}

d'où le résultat.$ \square$ Exemple 1.
Considérons la matrice $ A$ suivante :

$\displaystyle A=
\left(\begin{array}{ccr}
5&1&-1\\
1&3&-1\\
2&0&2
\end{array}\right)\;.
$

Sa forme de Jordan est :

$\displaystyle J(A)=
\left(\begin{array}{ccc}
2&0&0\\
0&4&1\\
0&0&4
\end{array}\right)\;.
$

L'exponentielle de $ t J(A)$ est :

$\displaystyle \exp(t J(A))=
\left(\begin{array}{ccc}
\mathrm{e}^{2t}&0&0\\
0&\mathrm{e}^{4t}&t\mathrm{e}^{4t}\\
0&0&\mathrm{e}^{4t}
\end{array}\right)\;.
$

Si $ (y_1(t),y_2(t),y_3(t))$ est solution du système ci-dessous, les fonctions $ y_1(t)$, $ y_2(t)$, $ y_3(t)$ sont nécessairement des combinaisons linéaires de $ \mathrm{e}^{2t}$, $ \mathrm{e}^{4t}$ et $ t\mathrm{e}^{4t}$.

$\displaystyle \left\{ \begin{array}{lcl} y'_1(t) = 5y_1(t)+y_2(t)-y_3(t) y'_2(t) = y_1(t)+3y_2(t)-y_3(t) y'_3(t) = 2y_1(t)+2y_3(t)\;. \end{array}\right.$    

Par exemple la solution du système pour $ y_1(0)=y_2(0)=y_3(0)=1$ est :

\begin{displaymath}
\left\{
\begin{array}{lcl}
y_1(t) &=& \mathrm{e}^{4t} + t\ma...
... (1/2)\mathrm{e}^{4t} + t\mathrm{e}^{4t}\;.
\end{array}\right.
\end{displaymath}

Après avoir résolu un système différentiel linéaire à coefficient constants avec une démarche théorique utilisant l'exponentielle de la matrice du système, voyons comment dans la pratique on effectue cette recherche, et refaisons le chemin sur des exemples. (Les répétitions avec ce qui précède sont volontaires). Exemple 2.
Nous voulons résoudre le système différentiel (réel)

\begin{displaymath}
\left\{
\begin{array}{lcl}
x'(t)&=&x(t)+3y(t)\\
y'(t)&=&x(t)-y(t)
\end{array}\right.
\end{displaymath}

$ t\mapsto x(t)$ et $ t\mapsto y(t)$ sont deux fonctions inconnues de $ \mathbb{R}^{+}$ dans $ \mathbb{R}$ et cela connaissant $ x_{0}=x(0)$ et $ y_{0}=y(0).$ Posons $ A=\left(\begin{array}{rr}
1 & 3\\
1 & -1\end{array}\right)$ et cherchons à diagonaliser $ A$. Calculons donc son polynôme caractéristique

$\displaystyle P_{A}(\lambda)=\left\vert\begin{array}{cc}
1-\lambda & 3\\
1 & -1-\lambda\end{array}\right\vert=(\lambda-2)(\lambda+2) .$

Comme ce polynôme caractéristique admet deux racines distinctes (de multiplicité $ 1$), nous savons que nous pourrons diagonaliser $ A$.

Recherchons le sous espace propre associé à $ \lambda_{1}=2$. Il faut résoudre

$\displaystyle \left(\begin{array}{cc}
1-2 & 3\\
1 & -1-2\end{array}\right)\lef...
...c}
x\\
y\end{array}\right)=\left(\begin{array}{c}
0\\
0\end{array}\right)\;,
$

d'où $ x=3y$ et donc $ (x,y)=y(3,1)$ et donc $ \left\{ (3,1)\right\} $ est une base de $ \mathrm{Ker}(A-2I).$

Recherchons le sous espace propre associé à $ \lambda_{1}=-2$. Il faut résoudre

$\displaystyle \left(\begin{array}{cc}
1+2 & 3\\
1 & -1+2\end{array}\right)\lef...
...c}
x\\
y\end{array}\right)=\left(\begin{array}{c}
0\\
0\end{array}\right)\;,
$

d'où $ x+y=0$ et donc $ (x,y)=x(1,-1)$ et donc $ \left\{ (1,-1)\right\} $ est une base de $ \mathrm{Ker}(A+2I)$.

Posons $ P=\left(\begin{array}{cc}
3 & 1\\
1 & -1\end{array}\right)$, alors $ D=P^{-1}AP=\left(\begin{array}{cc}
2 & 0\\
0 & -2\end{array}\right)$. En termes de système différentiel :

$\displaystyle \frac{\mathrm{d}}{\mathrm{d}t}\left(\begin{array}{c}x y\end{arr...
...}x y\end{array}\right)
=DP^{-1}\left(\begin{array}{c}x y\end{array}\right)
$

Posons donc $ \left(\begin{array}{c}X Y\end{array}\right)=
P^{-1}\left(\begin{array}{c}x y\end{array}\right)$ :

\begin{displaymath}
\frac{\mathrm{d}}{\mathrm{d}t}\left(\begin{array}{c}X Y\en...
...array}{lcl}
X'(t)&=&2X(t)\\
Y'(t)&=&-2Y(t)
\end{array}\right.
\end{displaymath}

Ainsi la diagonalisation a découplé les nouvelles fonctions inconnues. Il existe deux constantes réelles $ k_{1}$ et $ k_{2}$ telles que $ X(t)=k_{1}\mathrm{e}^{2t}$ et $ Y(t)=k_{2}\mathrm{e}^{-2t}$. En revenant à la définition de $ X$ et de $ Y$

$\displaystyle \left(\begin{array}{c}
x(t)\\
y(t)\end{array}\right)=P\left(\beg...
...ay}\right)\left(\begin{array}{c}
k_{1}e^{2t}\\
k_{2}e^{-2t}\end{array}\right)
$

Pour $ t=0$ il reste

$\displaystyle \left(\begin{array}{c}
x_{0}\\
y_{0}\end{array}\right)=P\left(\begin{array}{c}
k_{1}\\
k_{2}\end{array}\right)
$

et donc

$\displaystyle \left(\begin{array}{c}
k_{1}\\
k_{2}\end{array}\right)=P^{-1}\le...
...1& -3\end{array}\right)\left(\begin{array}{c}
x_{0}\\
y_{0}\end{array}\right)
$

La solution du système est

$\displaystyle \left\{ \begin{array}{lcl}
x(t)&=&\displaystyle{\frac{3x_{0}+3y_{...
...{4}\mathrm{e}^{2t}-
\frac{x_{0}-3y_{0}}{4}\mathrm{e}^{-2t}}
\end{array}\right.
$

Ou encore :

$\displaystyle \left(\begin{array}{c}
x(t)\\
y(t)\end{array}\right)=
\left(\beg...
...
\end{array}\right)\left(\begin{array}{c}
x_{0}\\
y_{0}\end{array}\right) \;.
$

La matrice

$\displaystyle R(t)=\left(\begin{array}{cc}
\frac{3}{4}\mathrm{e}^{2t}+\frac{1}{...
...  &
\frac{1}{4}\mathrm{e}^{2t}+\frac{3}{4}\mathrm{e}^{-2t}\end{array}\right)
$

vérifie $ \frac{\mathrm{d}}{\mathrm{d}t}R(t)=A R(t)$ et $ R(0)=I$. C'est l'exponentielle de $ At$. On la nomme résolvante du problème de Cauchy consistant à trouver la solution du système connaissant sa valeur en $ t=0$. Cette solution du système est donnée explicitement en fonction des conditions initiales $ (x_0,y_0)$. Au passage, nous avons obtenu une solution définie sur $ \mathbb{R}$ tout entier, et nous pourrions démontrer ainsi l'existence et l'unicité de la solution au problème de Cauchy. Cela ne survient que parce que le système est linéaire à coefficients constants (sinon le domaine de définition de la solution n'est pas $ \mathbb{R}$, a priori). Noter que les coefficients constants interviennent de manière cruciale dans

$\displaystyle \frac{\mathrm{d}}{\mathrm{d}t}\left[P^{-1}\left(\begin{array}{c}
...
...frac{\mathrm{d}}{\mathrm{d}t}\left(\begin{array}{c}
x\\
y\end{array}\right) .$

Si les coefficients de la matrice $ A$ ne sont pas constants n'utilisez pas la diagonalisation ! Exemple 3.
Considérons le système

\begin{displaymath}
\left\{
\begin{array}{lcl}
x'(t)&=&2x(t)-y(t)\\
x'(t)&=&x(t)-y(t)
\end{array}\right.
\end{displaymath}

$ t\mapsto x(t)$ et $ t\mapsto y(t)$ sont deux fonctions inconnues de $ \mathbb{R}^{+}$ dans $ \mathbb{R}$ et cela connaissant $ x_{0}=x(0)$ et $ y_{0}=y(0).$ Posons $ A=\left(\begin{array}{cc}
2 & -1\\
1 & 2\end{array}\right)$ et cherchons à diagonaliser $ A$. Calculons donc son polynôme caractéristique

$\displaystyle P_{A}(\lambda)=\left\vert\begin{array}{cc}
2-\lambda & -1\\
1 & 2-\lambda\end{array}\right\vert=(\lambda-2)^{2}+1 .$

Comme le polynôme caractéristique n'admet pas de racines dans $ \mathbb{R}$, la méthode précédente semble tomber à l'eau.

Nous pourrions décider de passer dans $ \mathbb{C}$. Pour cela factorisons $ P_{A}(\lambda)$ comme polynôme à coefficients complexes.

$\displaystyle P_{A}(\lambda)=(\lambda-2-\mathrm{i})(\lambda-2+\mathrm{i})$

et nous obtenons deux racines complexes $ \lambda_{1}=2+\mathrm{i}$ et $ \lambda_{2}=2-\mathrm{i}$ de multiplicité $ 1$. Nous pourrions donc diagonaliser comme dans l'exemple de la rotation en passant dans $ \mathbb{C}^{2}$. Qu'obtiendrait-on ? Une fois tous les calculs faits nous aurions

$\displaystyle \left\{ \begin{array}{c}
x(t)=A\mathrm{e}^{(2+\mathrm{i})t}+B\mat...
...=C\mathrm{e}^{(2+\mathrm{i})t}+D\mathrm{e}^{(2-\mathrm{i})t}\end{array}\right.
$

$ A$, $ B$, $ C$ et $ D$ sont des constantes complexes reliées par deux relations.

Comme nous manquons de courage pour ces calculs, nous allons procéder à l'envers, en faisant la remarque suivante : oui il y a bien un moyen de soutirer de la résolution complexe la résolution réelle, en regroupant de manière astucieuse les vecteurs propres complexes associés à une valeur propre complexe et à sa conjuguée (comme le polynôme caractéristique est à coefficients réels, si un complexe est racine, alors son complexe conjugué aussi). Cela aura comme conséquence de choisir A et B de sorte que $ x$ devienne réel et aussi $ C$ et $ D$ de sorte que $ y$ deviennent réel. Autrement dit la solution réelle sera de la forme

$\displaystyle \left\{ \begin{array}{c}
x(t)=a\mathrm{e}^{2t}\cos t+b\mathrm{e}^{2t}\sin t\\
y(t)=c\mathrm{e}^{2t}\cos t+d\mathrm{e}^{2t}\sin t\end{array}\right.$

$ a$, $ b$, $ c$ et $ d$ sont des constantes réelles reliées par deux relations. (Attention $ a$ n'est pas la partie réelle de $ A$...) Concrètement il y a deux racines complexes $ 2+\mathrm{i}$ et $ 2-\mathrm{i}$, il faut séparer la partie réelle donnant $ \mathrm{e}^{2t}$ et la partie imaginaire pure donnant $ \cos t$ et $ \sin t$). Mais je n'ai toujours pas les relations en question puisque je n'ai pas fait les calculs, direz vous ! Oui, mais puisque nous savons que la solution sera de cette forme, pourquoi ne pas faire les calculs à l'envers et reporter la forme ci-dessus dans le système de départ ? Ainsi, nous aurons les relations recherchées, et nous n'aurons pas besoin d'effectuer la diagonalisation complexe ! De fait les calculs sont beaucoup plus rapides et simples, et conduisent bien au résultat.

Nous utilisons donc la diagonalisation complexe uniquement pour connaître la forme de la solution, mais ce passage est crucial.

Si $ a$, $ b$, $ c$ et $ d$ sont 4 constantes réelles, reportons donc la forme indiquée dans le système initial brut.

$\displaystyle \left\{ \begin{array}{ccl}
x'(t)&=&\mathrm{e}^{2t}((2a+b)\cos t+(...
...sin t)\\
y'(t)&=&\mathrm{e}^{2t}((2c+d)\cos t+(2d-c)\sin t)\end{array}\right.
$

devrait donner

\begin{displaymath}
\left\{
\begin{array}{ccl}
x'(t)&=&2x-y=\mathrm{e}^{2t}((2a-...
...y=\mathrm{e}^{2t}((a+2c)\cos t+(b+2d)\sin t)\end{array}\right.
\end{displaymath}

et nous obtenons

$\displaystyle \left\{ \begin{array}{c}
2a+b=2a-c\\
2b-a=2b-d\\
2c+d=a+2c\\
2d-c=b+2d\end{array}\right.
$

ou encore $ b=-c,$ $ a=d$ donc

$\displaystyle \left\{ \begin{array}{ccl}
x(t)&=&a\mathrm{e}^{2t}\cos t+b\mathrm...
...n t\\
y(t)&=&-b\mathrm{e}^{2t}\cos t+a\mathrm{e}^{2t}\sin t\end{array}\right.
$

et pour $ t=0$, $ \left\{ \begin{array}{l}
x_{0}=a\\
y_{0}=-b\end{array}\right.$. La solution du système est donc

$\displaystyle \left\{ \begin{array}{ccl}
x(t)&=&\mathrm{e}^{2t}(x_{0}\cos t-y_{0}\sin t)\\
y(t)&=&\mathrm{e}^{2t}(y_{0}\cos t+x_{0}\sin t)\end{array}\right.
$

ou encore mieux

$\displaystyle \left(\begin{array}{c}
x(t)\\
y(t)\end{array}\right)=\left(\begi...
... t\end{array}\right)\left(\begin{array}{c}
x_{0}\\
y_{0}\end{array}\right)\;.
$

La matrice

$\displaystyle R(t)=\left(\begin{array}{cc}
\mathrm{e}^{2t}\cos t & -\mathrm{e}^{2t}\sin t\\
\mathrm{e}^{2t}\sin t & \mathrm{e}^{2t}\cos t\end{array}\right)
$

vérifie $ \frac{\mathrm{d}R}{\mathrm{d}t}=AR$ et $ R(0)=I$. Elle est la résolvante du problème de Cauchy posé initialement.

Comme vous l'avez constaté sur l'exemple ci dessus, la réduction à la forme diagonale a été cruciale pour connaître la forme de la solution d'un système réel $ \frac{\mathrm{d}Y}{\mathrm{d}t}=A Y$, où $ A$ est une matrice constante. Et si la matrice $ A$ n'est pas diagonalisable ? Comme nous disposons de la réduction de Jordan et que nous avons compris théoriquement la démarche à effectuer nous avons (sans nous en rendre compte) justifié la démarche pratique proposée souvent par les physiciens. Recette pratique.
Soit à résoudre $ \frac{\mathrm{d}Y}{\mathrm{d}t}=A Y$, où $ Y(t)=(y_1(t),\ldots,y_n(t)$ est un $ n$-uplet de fonctions inconnues et $ A$ est une matrice constante.

  1. Trouver les valeurs propres réelles ou complexes et leurs multiplicités : mettons $ \lambda_{1},\dots,\lambda_{k}$ de multiplicités $ m_{1},\dots,m_{k}$ sont les racines du polynôme caractéristique $ P_{A}(x)=\mathrm{det}(A-XI)$ (avec $ n=m_{1}+\dots+m_{k})$.
  2. Trouver les dimensions des sous espaces propres $ 1\leqslant s_{i}=\dim\mathrm{Ker}(A-\lambda_{i}I)\leqslant m_{i}$.
  3. Séparer les valeurs propres réelles des valeurs propres complexes.
  4. À une valeur propre réelle, mettons $ \lambda_{j}$, on associe $ t\mapsto e^{\lambda_{j}t}\Gamma_{j}(t)$ $ \Gamma_{j}(t)$ est un polynôme réel de degré $ m_{j}-s_{j}$.
  5. Chaque valeur propre complexe doit être associée à la valeur propre complexe conjuguée (qui est aussi valeur propre puisque le polynôme caractéristique est à coefficients réels). Disons $ \lambda_{j}=a_{j}+\mathrm{i}b_{j}$ et $ \overline{\lambda}_{j}=a_{j}-\mathrm{i}b_{j}$ : à ce couple on associe les fonctions $ t\mapsto(\Gamma_{j}(t)\cos b_{j}t+\Delta_{j}(t)\sin b_{j}t)\mathrm{e}^{a_{j}t}$ $ \Gamma_{j}$ et $ \Delta_{j}$ sont des polynômes réels de degré $ m_{j}-s_{j}$. Ce faisant on introduit trop de constantes réelles !
  6. On reporte dans le système initial la somme des fonctions génériques introduites dans 4) et 5), mais pour chaque fonction inconnue, on introduit des constantes différentes. (Comme on ne possède pas la matrice de passage de la base canonique à une base qui réduit l'endomorphisme, cela revient à prendre les coefficients de la matrice $ P^{-1}TP$$ T$ est la forme réduite de l'endomorphisme de manière quelconque, en ne retenant que l'idée que chaque élément sera une combinaison linéaire des fonctions génériques de 4) et 5) et donc chaque fonction inconnue aussi). On en introduit donc beaucoup trop! On constate que le nombre de constantes introduites est bien $ n$ la dimension du système, une fois toutes les équations du système vérifiées. La recette dit que cela marche sans expliquer pourquoi ! Il faut pour cela résoudre les systèmes linéaires obtenus (en identifiant les coefficients des fonctions génériques qui forment un système libre dans l'espace vectoriel des fonctions réelles d'une variable réelle) et ramener le nombre de constantes à $ n$.
  7. On a obtenu la forme de la solution générale dépendant de $ n$ constantes réelles, on y fait $ t=0$ et on extrait l'expression de ces constantes en fonction des conditions initiales (cela peut être redoutable si $ n$ est grand, uniquement possible numériquement et/ou de manière approchée !).
(fin de la recette)

Dans la recette précédente, rien n'est démontré, on affirme simplement que cela marche, mais c'est une conséquence du théorème 8 comme expliqué au dessus ! En fait la recette reste dans la base canonique de $ \mathbb{R}^{n}$, introduit beaucoup trop de constantes, puis en vérifiant le système «à l'envers», calcule directement le produit $ P^{-1}TP$ qui donne la solution générale, et cela dans la base canonique de $ \mathbb{R}^{n}$, sans avoir besoin de calculer la matrice de passage $ P$, ni $ T$ ni $ P^{-1}$ , ni la solution générale dans la nouvelle base, ni le retour à l'ancienne base ! C'est pour cela que la recette est rapide et efficace. Pour la justifier il faut simplement démonter la formule $ A=P^{-1}TP$ avec $ T$ sous forme de Jordan (pensez à triangulaire supérieure avec des coefficients non nuls uniquement sur la diagonale et sur la «diagonale juste au dessus»), puis refaire le passage réels $ \rightarrow$complexes $ \rightarrow$réels comme expliqué dans l'exemple 3.

De plus on peut aussi sauter l'étape 2 et prendre les polynômes $ \Gamma_{j}$ et $ \Delta_{j}$ de degré $ m_{j}-1\geqslant m_{j}-s_{j}$. On introduit alors encore d'autres constantes inutiles. Les systèmes linéaires obtenus, de taille plus grande, vont rendre nulles ces constantes inutiles, ce qui embrouille souvent la compréhension de ce que l'on fait. C'est souvent la méthode présentée par les physiciens. Cela revient à utiliser $ P^{-1}TP$ avec $ T$ sous forme triangulaire supérieure, sans essayer à savoir si $ T$ peut être mise sous une forme plus intrinsèque, décomposant $ \mathbb{R}^{n}$ en sous espaces stables par $ A$. Comme le comportement du système différentiel, localement et globalement est profondément lié à cette décomposition en sous espaces stables, décortiquer le comportement du système différentiel demande de comprendre la décomposition de Jordan. Cela revient à décomposer le système en un certain nombre de sous-systèmes indépendants et analyser le comportement de chacun des sous-systèmes possibles, ceux qui correspondent à la découverte de Jordan. Exemple 4.
On veut résoudre le problème de Cauchy, consistant à trouver
$ (x(t),y(t),z(t))$ définies sur $ [0,t_{\max}[$, telles que $ (x(0),y(0),z(0))=(x_0,y_0,z_0)$ et

$\displaystyle \frac{d}{dt}\left(\begin{array}{c}
x(t)\\
y(t)\\
z(t)\end{array...
...nd{array}\right)
\left(\begin{array}{c}
x(t)\\
y(t)\\
z(t)\end{array}\right)
$

On pose

$\displaystyle A=\left(\begin{array}{ccc}
2 & 2 & 3\\
0 & 2 & -1\\
0 & 0 & 1\end{array}\right)
$

Le polynôme caractéristique est $ P_{A}(X)=(2-X)^{2}(1-X)$. Recherchons donc les fonctions inconnues comme combinaisons linéaires proposées par la recette

$\displaystyle \left\{ \begin{array}{c}
x=\mathrm{e}^{2t}(at+b)+c\mathrm{e}^{t}\...
...)+f\mathrm{e}^{t}\\
z=\mathrm{e}^{2t}(gt+h)+k\mathrm{e}^{t}\end{array}\right.
$

D'une part

$\displaystyle \left\{ \begin{array}{ccl}
\frac{\mathrm{d}x}{\mathrm{d}t}&=&\mat...
...{\mathrm{d}
t}&=&\mathrm{e}^{2t}(2gt+2h+g)+k\mathrm{e}^{t}
\end{array}\right.
$

d'autre part

$\displaystyle \left\{ \begin{array}{rcl}
2x+2y+3z&=&(2at+2b+2dt+2e+3gt+3h)\math...
...)\mathrm{e}^{t}\\
z&=&\mathrm{e}^{2t}(gt+h)+k\mathrm{e}^{t}\end{array}\right.
$

Nous avons donc un système linéaire de trois équations. L'identification des coefficients de $ \mathrm{e}^t$ et $ \mathrm{e}^{2t}$ dans la troisième, puis la seconde, puis la première équation donne :

$\displaystyle \left\{ \begin{array}{lcl}
2g&=&g\\
2h+g&=&h\\
k&=&k\end{array}...
...array}{lcl}
2a&=&2a+2d+3g\\
2b+a&=&2b+2e+3h\\
c&=&2c+2f+3k\end{array}\right.
$

On en déduit $ g=h=0,$ (ces constantes sont nulles parce que le système initial était triangulaire supérieur, pas parce que l'on avait sauté l'étape deux, qui donnerait ici le même nombre de constantes) puis $ f=k$ puis $ d=0$ , $ a=2e$ et $ c=-5k$. Il vient :

$\displaystyle \left\{ \begin{array}{lcl}
x(t)&=&\mathrm{e}^{2t}(2et+b)-5k\mathr...
...\mathrm{e}^{2t}(e)+k\mathrm{e}^{t}\\
z(t)&=&k\mathrm{e}^{t}\end{array}\right.
$

Pour $ t=0$ on obtient

$\displaystyle \left\{ \begin{array}{lcl}
x_{0}&=&b-5k\\
y_{0}&=&e+k\\
z_{0}&=&k\end{array}\right.
$

Finalement,

$\displaystyle \left\{ \begin{array}{lcl}
x(t)&=&\mathrm{e}^{2t}(2(y_{0}-z_{0})t...
...rm{e}^{2t}(y_{0}-z_{0})+z_{0}\mathrm{e}^{t}\\
z(t)&=&z_{0}e\end{array}\right.
$

La solution est donc

$\displaystyle \left(\begin{array}{c}
x(t)\\
y(t)\\
z(t)\end{array}\right)=\le...
...ray}\right)\left(\begin{array}{c}
x_{0}\\
y_{0}\\
z_{0}\end{array}\right)\;.
$

La matrice

$\displaystyle R(t)=\left(\begin{array}{ccc}
\mathrm{e}^{2t} & 2t\mathrm{e}^{2t}...
...thrm{e}^{2t}+\mathrm{e}^{t}\right)\\
0 & 0 & \mathrm{e}^{t}\end{array}\right)
$

vérifie $ \frac{dR(t)}{dt}=A.R$ et $ R(0)=I$. C'est la résolvante du problème posé. Difficile de faire plus rapide pour l'obtenir ! Équations aux différences.
Pour terminer, nous allons démontrer deux résultats très proches, portant l'un sur les équations de récurrence, l'autre sur les équations différentielles. Vous connaissez déjà ces résultats dans le cas $ n=2$. Soient $ a_0,\ldots,a_{n-1}$ $ n$ réels. Notons $ Q$ le polynôme

$\displaystyle Q=X^n-(a_{n-1}X^{n-1}+\cdots+a_1X+a_0)\;.
$

Notons $ \lambda_1,
\ldots,\lambda_k$ les racines de $ Q$, et $ m_1,\ldots, m_k$ leurs multiplicités.

$\displaystyle Q=\prod_{i=1}^k (X-\lambda_i)^{m_i}\;.
$

Théorème 9   Considérons l'équation :

$\displaystyle ({\cal E}_r)\qquad
\forall k\in\mathbb{N}\;,\quad
u_{k+n} = a_0 u_k + a_1 u_{k+1} +\cdots+ a_{n-1} u_{k+n-1}\;.
$

Toute solution de $ ({\cal E}_r)$ s'écrit :

$\displaystyle u_n = \sum_{i=1}^k \sum_{j=0}^{m_i-1} \alpha_{i,j} n^j \lambda_i^n\;,
$

où les $ n$ coefficients $ \alpha_{i,j} ,\;i=1,\ldots,k ,\;j=0,\ldots,m_i\!-\!1$ sont réels ou complexes.

Théorème 10   Considérons l'équation :

$\displaystyle ({\cal E}_d)\qquad
y^{(n)}(t) = a_0 y(t) + a_1 y'(t) +\cdots+ a_{n-1} y^{(n-1)}(t)\;,
$

Toute solution de $ ({\cal E}_d)$ s'écrit :

$\displaystyle y(t) = \sum_{i=1}^k \sum_{j=0}^{m_i-1} \alpha_{i,j} t^j
\mathrm{e}^{\lambda_i t}\;,
$

où les $ n$ coefficients $ \alpha_{i,j} ,\;i=1,\ldots,k ,\;j=0,\ldots,m_i\!-\!1$ sont réels ou complexes.

Démonstration : Les deux problèmes ont en commun leur écriture matricielle. Posons pour tout $ k\in\mathbb{N}$

$\displaystyle U_k=(u_k,u_{k+1},\ldots,u_{n-1+k})$   et$\displaystyle \quad
Y(t) = (y(t),y'(t),\ldots,y^{(n-1)}(t))
$

Les deux équations $ ({\cal E}_r)$ et $ ({\cal E}_d)$ s'écrivent :

$\displaystyle U_{k+1} = U_k  A$   et$\displaystyle \quad
Y'(t) = Y(t) A\;,
$

$ A$ est la matrice compagnon du polynôme $ Q$.

\begin{displaymath}
A=\left(
\begin{array}{cccccc}
0&0&\ldots&\ldots&0&a_0\\
1&...
...ts&0&a_{n-2}\\
0&\ldots&\ldots&0&1&a_{n-1}
\end{array}\right)
\end{displaymath}

Les solutions sont :

$\displaystyle U_{k} = U_0A^k$   et$\displaystyle \quad
Y(t)=Y(0)\exp(tA)\;.
$

Nous avons déjà vu que le polynôme minimal et le polynôme caractéristique de la matrice $ A$ sont tous les deux égaux à $ Q$, au signe près. La réduction de Jordan de $ A$ est de la forme

$\displaystyle P^{-1}AP=J(A)\;,
$

$ J(A)$ est une matrice diagonale par blocs. À chaque valeur propre $ \lambda_i$ de $ A$ est associé un bloc $ B_i$. Ce bloc a pour taille la multiplicité $ m_i$ de $ \lambda_i$ dans le polynôme caractéristique. Il est la somme de $ \lambda_iI$ et d'un bloc nilpotent $ N_i$ dont la puissance $ m_i$-ième est nulle.

Pour le théorème 9,

$\displaystyle A^n = P(J(A))^n P^{-1}\;.
$

Si une matrice $ M$ est diagonale par blocs, alors $ M^n$ l'est aussi et ses blocs sont les puissances $ n$-ièmes des blocs de $ M$. Ces observations montrent que les coefficients de $ A^n$ sont des combinaisons linéaires des coefficients des $ B_i^n$. Or les puissances successives de $ N_i$ sont nulles à partir de la $ m_i$-ième. On a :
$\displaystyle B_i^n$ $\displaystyle =$ $\displaystyle (\lambda_i I_{d_i} + N_i)^n$  
  $\displaystyle =$ $\displaystyle \sum_{j=0}^n \binom{n}{j} \lambda_i^{n-j}N_i^j$  
  $\displaystyle =$ $\displaystyle \lambda_i^n I_{d_i} + n\lambda_i^{n-1}N_i +
\frac{n(n\!-\!1)}{2}\lambda_i^{n-2}N_i^2$  
    $\displaystyle \hspace*{1cm}+\cdots+
\frac{n(n\!-\!1)\ldots(n\!-\!m_i+2)}{(m_i\!-\!1)!}
\lambda_i^{n-m_i+1}N_i^{m_i-1}\;.$  

Tous les coefficients de $ B_i^n$ sont donc des combinaisons linéaires de

$\displaystyle \lambda_i^n, n\lambda_i^n, \ldots , n^{m_i-1}\lambda_i^n\;.
$

C'est donc aussi le cas pour les coefficients de $ A^n$. Pour $ \exp(t A)$, le raisonnement est celui de la démonstration du théorème 8. $ \square$

         © UJF Grenoble, 2011                              Mentions légales