Opérations sur les matrices

Etant donnés deux entiers $ m$ et $ n$ strictement positifs, une matrice à $ m$ lignes et $ n$ colonnes est un tableau rectangulaire de réels $ A=(a_{i,j})$. L'indice de ligne $ i$ va de $ 1$ à $ m$, l'indice de colonne $ j$ va de $ 1$ à $ n$.

\begin{displaymath}
A=(a_{i,j})
=
\left(
\begin{array}{ccccc}
a_{1,1}&\cdots&a_{...
...
a_{m,1}&\cdots&a_{m,j}&\cdots&a_{m,n}
\end{array}\right)
\;.
\end{displaymath}

Les entiers $ m$ et $ n$ sont les dimensions de la matrice, $ a_{i,j}$ est son coefficient d'ordre $ (i,j)$. L'ensemble des matrices à $ m$ lignes et $ n$ colonnes et à coefficients réels est noté $ {\cal M}_{m,n}(\mathbb{R})$. Ce qui suit s'applique aussi, si on remplace $ \mathbb{R}$ par $ \mathbb{C}$, à l'ensemble des matrices à coefficients complexes.

L'ensemble $ {\cal M}_{m,n}(\mathbb{R})$ est naturellement muni d'une addition interne (on peut ajouter deux matrices de mêmes dimensions terme à terme) et d'une multiplication externe (on peut multiplier une matrice par un réel terme à terme).

$ \bullet$
Addition : Si $ A=(a_{i,j})$ et $ B=(b_{i,j})$ sont deux matrices de $ {\cal M}_{m,n}(\mathbb{R})$, leur somme $ A+B$ est la matrice $ (a_{i,j}+b_{i,j})$. Par exemple :

\begin{displaymath}
\left(
\begin{array}{rr}
1&1\\
2&3\\
1&-1
\end{array}\righ...
...n{array}{rr}
-2&\hspace{3mm}2\\
7&0\\
1&1
\end{array}\right)
\end{displaymath}

$ \bullet$
Multiplication externe : Si $ A=(a_{i,j})$ est une matrice de $ {\cal M}_{m,n}(\mathbb{R})$, et $ \lambda$ est un réel, le produit $ \lambda A$ est la matrice $ (\lambda a_{i,j})$. Par exemple :

\begin{displaymath}
-2 
\left(
\begin{array}{rr}
1&1\\
2&3\\
1&-1
\end{array}...
...t(
\begin{array}{rr}
-2&-2\\
-4&-6\\
-2&2
\end{array}\right)
\end{displaymath}

Observons que les opérations auraient le même effet si les matrices étaient disposées comme des $ mn$-uplets de réels (toutes les lignes étant concaténées par exemple). Donc $ {\cal M}_{m,n}(\mathbb{R})$, muni de son addition et de sa multiplication externe, est un espace vectoriel, isomorphe à $ \mathbb{R}^{mn}$. La base canonique de $ {\cal M}_{m,n}(\mathbb{R})$ est formée des matrices dont tous les coefficients sont nuls, sauf un qui vaut $ 1$. L'opération la plus importante est le produit matriciel.

Définition 1   Soient $ m,n,p$ trois entiers strictement positifs. Soit $ A=(a_{i,j})$ une matrice de $ {\cal M}_{m,n}(\mathbb{R})$ et soit $ B=(b_{j,k})$ une matrice de $ {\cal M}_{n,p}(\mathbb{R})$. On appelle produit matriciel de $ A$ par $ B$ la matrice $ C\in {\cal M}_{m,p}(\mathbb{R})$ dont le terme général $ c_{i,k}$ est défini, pour tout $ i=1,\ldots,m$ et pour tout $ k\in 1,\ldots,p$ par :

$\displaystyle c_{i,k} = \sum_{j=1}^n a_{i,j} b_{j,k}\;.
$

Nous insistons sur le fait que le produit $ AB$ de deux matrices n'est défini que si le nombre de colonnes de $ A$ et le nombre de lignes de $ B$ sont les mêmes. Observons d'abord que la définition 1 est cohérente avec la définition du produit d'une matrice par un vecteur, donnée au chapitre précédent : si $ p=1$, la matrice $ B$ a $ n$ lignes et $ 1$ colonne, et le produit $ AB$ a $ m$ lignes et $ 1$ colonne. D'autre part, appliquer la définition 1 revient à effectuer successivement le produit de $ A$ par chacune des colonnes de $ B$. Pour effectuer ce produit, nous conseillons d'adopter la même disposition que pour le produit par un vecteur, en plaçant $ B$ au-dessus et à droite de $ A$.

\begin{displaymath}
\begin{array}{cc}
&
\left(
\begin{array}{ccccc}
b_{1,1}&\cdo...
...}&\\
&&&&\\
c_{m,1}&&&&c_{m,p}
\end{array}\right)
\end{array}\end{displaymath}

Posons par exemple :

\begin{displaymath}
A=
\left(
\begin{array}{rr}
1&1\\
2&3\\
1&-1
\end{array}\r...
...egin{array}{rrrr}
0&1&-1&-2\\
-3&-2&0&1
\end{array}\right)\;.
\end{displaymath}

La matrice $ A$ a 3 lignes et 2 colonnes, la matrice $ B$ a 2 lignes et 4 colonnes. Le produit $ AB$ a donc un sens : c'est une matrice à 3 lignes et 4 colonnes.

\begin{displaymath}
\begin{array}{ll}
&\left(
\begin{array}{rrrr}
0&1&-1&-2\\
-...
...1&-1\\
-9&-4&-2&-1\\
3&3&-1&-3
\end{array}\right)
\end{array}\end{displaymath}

Le produit matriciel a toutes les propriétés que l'on attend d'un produit, sauf qu'il n'est pas commutatif.

Proposition 1   Le produit matriciel possède les propriétés suivantes.
  1. Associativité : Si les produits $ AB$ et $ BC$ sont définis, alors les produits $ A(BC)$ et $ (AB)C$ le sont aussi et ils sont égaux.

    $\displaystyle A(BC)=(AB)C\;.
$

  2. Linéarité à droite : Si $ B$ et $ C$ sont deux matrices de mêmes dimensions, si $ \lambda$ et $ \mu$ sont deux réels et si $ A$ a autant de colonnes que $ B$ et $ C$ ont de lignes, alors

    $\displaystyle A(\lambda B+\mu C) = \lambda AB+\mu AC\;.
$

  3. Linéarité à gauche : Si $ A$ et $ B$ sont deux matrices de mêmes dimensions, si $ \lambda$ et $ \mu$ sont deux réels et si $ C$ a autant de lignes que $ A$ et $ B$ ont de colonnes, alors

    $\displaystyle (\lambda A+\mu B)C = \lambda AC+\mu BC\;.
$

Ces propriétés se démontrent à partir de la définition 1. La transposition est une notion importante, dont la justification provient de la dualité, qui dépasse le cadre de ce cours.

Définition 2   Étant donnée une matrice $ A=(a_{i,j})$ de $ {\cal M}_{m,n}(\mathbb{R})$, sa transposée est la matrice de $ {\cal M}_{n,m}(\mathbb{R})$ dont le coefficient d'ordre $ (j,i)$ est $ a_{i,j}$.

Pour écrire la transposée d'une matrice, il suffit de transformer ses lignes en colonnes. Par exemple :

\begin{displaymath}
A=
\left(
\begin{array}{rr}
1&1\\
2&3\\
1&-1
\end{array}\r...
...
1&\hspace{3mm}2&1\\
1&\hspace{3mm}3&-1
\end{array}\right)\;.
\end{displaymath}

Observons que la transposée de la transposée est la matrice initiale.

$\displaystyle {^t({^t\!A})} = A\;.
$

La transposée d'un produit est le produit des transposées, mais il faut inverser l'ordre des facteurs.

Proposition 2   Soient $ m,n,p$ trois entiers strictement positifs. Soient $ A=(a_{i,j})$ une matrice de $ {\cal M}_{m,n}(\mathbb{R})$ et $ B=(b_{j,k})$ une matrice de $ {\cal M}_{n,p}(\mathbb{R})$. La transposée du produit de $ A$ par $ B$ est le produit de la transposée de $ B$ par la transposée de $ A$.

$\displaystyle {^t(AB)} = {^t\!B} {^t\!A}\;.
$

Par exemple, en reprenant les matrices $ A$ et $ B$ définies ci-dessus :

\begin{displaymath}
\begin{array}{rr}
&
\left(
\begin{array}{rrr}
\;1&\quad2&1\\...
...
-1&-4&3\\
-1&-2&-1\\
-1&-1&-3
\end{array}\right)
\end{array}\end{displaymath}

Observons que le produit d'une matrice par sa transposée est toujours défini.

\begin{displaymath}
A {^t\!A} =
\left(
\begin{array}{rrr}
2&5&0\\
5&13&-1\\
...
... =
\left(
\begin{array}{rr}
6&6\\
6&11
\end{array}\right)\;.
\end{displaymath}

Le résultat est une matrice carrée (autant de lignes que de colonnes) et symétrique.

Définition 3   Soit $ n$ un entier strictement positif et $ A$ une matrice carrée à $ n$ lignes et $ n$ colonnes. On dit que $ A$ est symétrique si pour tous $ i,j=1,\ldots,n$, ses coefficients d'ordre $ a_{i,j}$ et $ a_{j,i}$ sont égaux, ce qui est équivalent à dire que $ A$ est égale à sa transposée.

Le produit d'une matrice par sa transposée est toujours une matrice symétrique. En effet :

$\displaystyle {^t(A {^t\!A})} = {^t({^t\!A})} {^t\!A}=A {^t\!A}\;.
$


         © UJF Grenoble, 2011                              Mentions légales