Ensemble des solutions

Nous nous limitons dans ce chapitre au cas réel, mais ce qui suit reste valable sur $ \mathbb{C}$.

Considérons un système $ (S)$ de $ m$ équations à $ n$ inconnues.

$\displaystyle (S)\qquad
\left\{\begin{array}{ccccccc}
a_{1,1} x_1+&\cdots&+a_{...
...m,1} x_1+&\cdots&+a_{m,j} x_j+&\cdots&+a_{m,n} x_n&=&b_m
\end{array}\right.
$

Les coefficients $ a_{i,j}$ et $ b_i$ sont des réels donnés. Les variables $ x_i$ sont les inconnues. Il faut comprendre $ (S)$ comme la conjonction («et») de $ m$ assertions portant sur les variables $ (x_1,\ldots,x_n)$. Une solution est un $ n$-uplet de réels qui vérifie chacune des $ m$ équations. L'ensemble des solutions est un sous-ensemble de $ \mathbb{R}^n$. Deux systèmes à $ n$ inconnues sont équivalents si et seulement si leurs ensembles de solutions sont les mêmes.

Par convention, on regroupe les termes contenant les inconnues à gauche de l'égalité, les termes constants à droite. La partie gauche s'appelle le premier membre, le $ m$-uplet des constantes à droite de l'égalité est le second membre. On dit d'un système qu'il est homogène si tous les termes du second membre sont nuls. À un système $ (S)$, on associe le système homogène $ (H)$ obtenu en conservant le premier membre de $ (S)$ et en annulant le second membre.

$\displaystyle (H)\qquad
\left\{\begin{array}{ccccccc}
a_{1,1} x_1+&\cdots&+a_{...
..._{m,1} x_1+&\cdots&+a_{m,j} x_j+&\cdots&+a_{m,n} x_n&=&0
\end{array}\right.
$

Nous commençons par l'ensemble des solutions d'un système homogème.

Théorème 1   Soit $ (H)$ un système homogène de $ m$ équations à $ n$ inconnues. L'ensemble des solutions de $ (H)$ est un sous-espace vectoriel de $ \mathbb{R}^n$.

Démonstration : Observons que le $ n$-uplet $ (0,\ldots,0)$ (vecteur nul de $ \mathbb{R}^n$) est solution. L'ensemble des solutions de $ (H)$ n'est donc jamais vide.

Pour montrer qu'un ensemble non vide est un sous-espace vectoriel de $ \mathbb{R}^n$, il suffit de vérifier qu'il est stable par combinaison linéaire, c'est-à-dire que si deux éléments appartiennent à l'ensemble, toutes leurs combinaisons linéaires restent dans le même ensemble. Soient $ x=(x_1,\ldots,x_n)$ et $ y=(y_1,\ldots,y_n)$ deux solutions de $ (H)$, $ \lambda$ et $ \mu$ deux réels quelconques. Nous devons vérifier que $ \lambda x+\mu y$ est solution de $ (H)$. Considérons la $ i$-ième équation, vérifiée à la fois par $ x$ et $ y$.

$\displaystyle a_{i,1} x_1+\ldots+a_{i,n} x_n=0$   et$\displaystyle \quad
a_{i,1} y_1+\ldots+a_{i,n} y_n=0\;.
$

En multipliant la première par $ \lambda$, la seconde par $ \mu$ et en ajoutant les deux, on obtient :

$\displaystyle \lambda(a_{i,1} x_1+\ldots+a_{i,n} x_n)
+\mu(a_{i,1} x_1+\ldots+a_{i,n} x_n)=0\;,
$

soit,

$\displaystyle a_{i,1} (\lambda x_1+\mu y_1)+\ldots+a_{i,n} (\lambda x_n+\mu y_n)=0\;.
$

Le $ n$-uplet $ (\lambda x_1+\mu y_1,\ldots,\lambda x_n+\mu y_n)$ est donc solution de $ (H)$.$ \square$

Tout sous-espace vectoriel de $ \mathbb{R}^n$ est de dimension finie, au plus égale à $ n$. Soit $ E$ l'espace vectoriel des solutions du système homogène $ (H)$. Il se peut que $ E$ soit de dimension 0, si $ (0,\ldots,0)$ est la seule solution de $ (H)$. Nous verrons plus loin que la dimension de $ E$ est au moins égale à $ n-m$ : un système homogène ayant moins d'équations que d'inconnues a une infinité de solutions. Soit $ k$ la dimension de $ E$, et $ s_1,\ldots,s_k$ $ k$ solutions particulières, formant une base de $ E$. Toute solution de $ (H)$ s'écrit de façon unique comme combinaison linéaire de $ s_1,\ldots,s_k$.

$\displaystyle E = \{ \lambda_1s_1+\cdots+\lambda_k s_k  ,\;\lambda_1,\ldots,\lambda_k\in\mathbb{R} \}\;.$ (1)

Théorème 2   Soit $ (S)$ un système linéaire et $ (H)$ le système homogène associé. Notons $ {\cal S}$ l'ensemble des solutions de $ (S)$ et $ E$ l'espace vectoriel des solutions de $ (H)$. Alors,
$ \bullet$
soit $ {\cal S}$ est vide,
$ \bullet$
soit $ {\cal S}$ est un espace affine de direction $ E$.

Démonstration : Supposons $ {\cal S}$ non vide : soit $ s_0=(x_1^{(0)},\ldots,x_n^{(0)})$ une solution particulière de $ (S)$. Nous allons démontrer que toute solution de $ (S)$ est la somme de $ s_0$ et d'une solution de $ (H)$. Soit $ s=(x_1,\ldots,x_n)$ une solution quelconque de $ (S)$. Pour tout $ i=1,\ldots,m$, les deux solutions satisfont la $ i$-ième équation.

$\displaystyle a_{i,1} x_1^{(0)}+\ldots+a_{i,n} x_n^{(0)}=b_i$   et$\displaystyle \quad
a_{i,1} x_1+\ldots+a_{i,n} x_n=b_i\;.
$

Si on retranche la première équation de la seconde, on obtient :

$\displaystyle a_{i,1} (x_1-x_1^{(0)})+\ldots+a_{i,n} (x_n-x_n^{(0)})=0\;.
$

Par conséquent, le $ n$-uplet $ s-s_0$ est solution du système homogène associé $ (H)$.

Réciproquement, on vérifie de la même façon que tout $ n$-uplet somme de $ s_0$ et d'une solution de $ (H)$ est solution de $ (S)$. $ \square$

En joignant le théorème 2 et (1), on peut écrire l'ensemble des solutions de $ (S)$ comme suit.

$\displaystyle {\cal S} = \{ s_0+\lambda_1s_1+\cdots+\lambda_k s_k  ,\;\lambda_1,\ldots,\lambda_k\in\mathbb{R} \}\;.$ (2)

Vous pouvez retenir ce résultat ainsi :
La solution générale d'un système linéaire est la somme
d'une solution particulière
et de la solution générale du système homogène associé.
On retrouve ce même principe dans des problèmes très différents : équations de récurrence, équations différentielles, etc.

Le reste de ce chapitre est consacré à la méthode du pivot de Gauss qui permet de calculer explicitement des $ n$ uplets $ s_0,s_1,\ldots,s_k$, tels que $ s_0$ soit une solution particulière de $ (S)$ et $ (s_1,\ldots,s_k)$ soit une base de l'espace vectoriel des solutions de $ (H)$.


         © UJF Grenoble, 2011                              Mentions légales