Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec le niveau d’exigence attendu en classe préparatoire. Découvrir le professeur
L’addition de matrices opère coefficient par coefficient — une opération simple mais structurellement pauvre. Le produit matriciel, lui, encode la composition des applications linéaires : c’est cette richesse algébrique qui en fait l’outil central de l’algèbre linéaire. Ce chapitre développe la définition, démontre les propriétés fondamentales et détaille les techniques de calcul du produit de matrices, avec 8 exercices corrigés. Conforme au programme de terminale maths expertes et des CPGE scientifiques (MPSI, PCSI, MP, PC, PSI) — année 2025-2026. Les sections réservées à la prépa sont signalées par le badge 🟠.
I. Définition du produit matriciel
A. Condition de compatibilité des dimensions
Contrairement à l’addition (qui exige des matrices de même taille), le produit matriciel impose une condition d’une autre nature : le nombre de colonnes de la première matrice doit être égal au nombre de lignes de la seconde.
Plus précisément, si \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) et \(B \in \mathcal{M}_{p,q}(\mathbb{K})\), alors le produit \(AB\) est défini et appartient à \(\mathcal{M}_{n,q}(\mathbb{K})\). Schématiquement :
\(\underbrace{A}_{n \times \,\boldsymbol{p}} \;\times\; \underbrace{B}_{\boldsymbol{p}\, \times q} \;=\; \underbrace{AB}_{n \times q}\)
Les deux dimensions intérieures (\(p\)) doivent coïncider ; les dimensions extérieures (\(n\) et \(q\)) donnent la taille du résultat.
Piège : le produit \(AB\) peut être défini sans que \(BA\) le soit. Par exemple, si \(A \in \mathcal{M}_{2,3}(\mathbb{R})\) et \(B \in \mathcal{M}_{3,4}(\mathbb{R})\), alors \(AB \in \mathcal{M}_{2,4}(\mathbb{R})\) est défini, mais \(BA\) ne l’est pas (4 colonnes ≠ 2 lignes).
B. Formule du coefficient \((i,j)\)
La définition formelle repose sur une somme indexée par l’indice « intérieur » \(k\).
Définition — Produit de deux matrices
Soient \(A = (a_{i,k}) \in \mathcal{M}_{n,p}(\mathbb{K})\) et \(B = (b_{k,j}) \in \mathcal{M}_{p,q}(\mathbb{K})\). Le produit \(AB\) est la matrice \(C = (c_{i,j}) \in \mathcal{M}_{n,q}(\mathbb{K})\) définie par :
\(\displaystyle \forall\, (i,j) \in [\![1,n]\!] \times [\![1,q]\!], \quad c_{i,j} = \sum_{k=1}^{p} a_{i,k}\, b_{k,j}\)
Autrement dit, chaque coefficient \(c_{i,j}\) du produit est obtenu en « combinant » la \(i\)-ème ligne de \(A\) avec la \(j\)-ème colonne de \(B\).
C. Interprétation « ligne × colonne »
Concrètement, pour calculer le coefficient en position \((i,j)\) de \(AB\) :
- Extrais la ligne \(i\) de \(A\) : \((a_{i,1},\; a_{i,2},\; \ldots,\; a_{i,p})\).
- Extrais la colonne \(j\) de \(B\) : \(\begin{pmatrix} b_{1,j} \\ b_{2,j} \\ \vdots \\ b_{p,j} \end{pmatrix}\).
- Calcule leur produit scalaire : \(c_{i,j} = a_{i,1}\,b_{1,j} + a_{i,2}\,b_{2,j} + \cdots + a_{i,p}\,b_{p,j}\).
Exemple — Premier produit
Calculons \(AB\) avec :
\(A = \begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{pmatrix} \in \mathcal{M}_{2,3}(\mathbb{R}), \qquad B = \begin{pmatrix} 7 & 8 \\ 9 & 10 \\ 11 & 12 \end{pmatrix} \in \mathcal{M}_{3,2}(\mathbb{R})\)
Compatibilité : 3 colonnes dans \(A\), 3 lignes dans \(B\) → \(AB \in \mathcal{M}_{2,2}(\mathbb{R})\).
Calcul des coefficients :
- \(c_{1,1} = 1 \times 7 + 2 \times 9 + 3 \times 11 = 7 + 18 + 33 = 58\)
- \(c_{1,2} = 1 \times 8 + 2 \times 10 + 3 \times 12 = 8 + 20 + 36 = 64\)
- \(c_{2,1} = 4 \times 7 + 5 \times 9 + 6 \times 11 = 28 + 45 + 66 = 139\)
- \(c_{2,2} = 4 \times 8 + 5 \times 10 + 6 \times 12 = 32 + 50 + 72 = 154\)
D’où :
\(AB = \begin{pmatrix} 58 & 64 \\ 139 & 154 \end{pmatrix}\)
Mnémotechnique : le coefficient \(c_{i,j}\) est le « rendez-vous » entre la ligne \(i\) de \(A\) et la colonne \(j\) de \(B\). Retiens : ligne d’abord, colonne ensuite.
II. Propriétés algébriques du produit matriciel
Le produit matriciel possède une structure algébrique riche — mais aussi des « absences » par rapport au produit de scalaires. Cette section en dresse l’inventaire complet.
A. Bilinéarité
Propriété — Bilinéarité du produit
Pour toutes matrices de tailles compatibles et tout \(\lambda \in \mathbb{K}\) :
- Distributivité à droite : \((A + B)C = AC + BC\)
- Distributivité à gauche : \(A(B + C) = AB + AC\)
- Compatibilité scalaire : \(\lambda(AB) = (\lambda A)B = A(\lambda B)\)
Démonstration. Les trois égalités se vérifient coefficient par coefficient à partir de la formule de définition. Traitons la distributivité à gauche : pour tout \((i,j)\),
\(\displaystyle \bigl(A(B+C)\bigr)_{i,j} = \sum_{k=1}^{p} a_{i,k}(b_{k,j} + c_{k,j}) = \sum_{k=1}^{p} a_{i,k}\,b_{k,j} + \sum_{k=1}^{p} a_{i,k}\,c_{k,j} = (AB)_{i,j} + (AC)_{i,j}\)
Les deux autres se traitent de la même façon. ■
En termes abstraits, l’application \((A,B) \mapsto AB\) est bilinéaire de \(\mathcal{M}_{n,p}(\mathbb{K}) \times \mathcal{M}_{p,q}(\mathbb{K})\) dans \(\mathcal{M}_{n,q}(\mathbb{K})\).
B. Associativité ⋆
Théorème — Associativité du produit matriciel
Pour toutes matrices \(A \in \mathcal{M}_{n,p}(\mathbb{K})\), \(B \in \mathcal{M}_{p,q}(\mathbb{K})\), \(C \in \mathcal{M}_{q,r}(\mathbb{K})\) :
\((AB)C = A(BC)\)
Démonstration (⋆ exigible). Calculons le coefficient \((i,l)\) de chaque membre. D’une part :
\(\displaystyle \bigl((AB)C\bigr)_{i,l} = \sum_{j=1}^{q} (AB)_{i,j}\, c_{j,l} = \sum_{j=1}^{q} \left(\sum_{k=1}^{p} a_{i,k}\, b_{k,j}\right) c_{j,l} = \sum_{j=1}^{q} \sum_{k=1}^{p} a_{i,k}\, b_{k,j}\, c_{j,l}\)
D’autre part :
\(\displaystyle \bigl(A(BC)\bigr)_{i,l} = \sum_{k=1}^{p} a_{i,k}\, (BC)_{k,l} = \sum_{k=1}^{p} a_{i,k} \left(\sum_{j=1}^{q} b_{k,j}\, c_{j,l}\right) = \sum_{k=1}^{p} \sum_{j=1}^{q} a_{i,k}\, b_{k,j}\, c_{j,l}\)
Les deux sommes doubles portent sur le même terme général \(a_{i,k}\, b_{k,j}\, c_{j,l}\) et les mêmes ensembles d’indices finis. Par interversion des sommes finies, elles sont égales. ■
Conséquence pratique : grâce à l’associativité, on peut écrire \(ABC\) sans parenthèses. Attention cependant : l’ordre de calcul peut influer sur le nombre d’opérations (cf. complexité du produit chaîné).
C. Élément neutre : la matrice identité
La matrice identité \(I_n = (\delta_{i,j}) \in \mathcal{M}_n(\mathbb{K})\) (où \(\delta_{i,j}\) est le symbole de Kronecker) joue le rôle d’élément neutre pour le produit :
Propriété — Élément neutre
Pour toute matrice \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) :
\(I_n \, A = A \quad \text{et} \quad A \, I_p = A\)
En particulier, \((\mathcal{M}_n(\mathbb{K}),\, +,\, \times)\) est un anneau unitaire (non commutatif pour \(n \geq 2\)).
D. Non-commutativité
C’est la différence la plus frappante avec le produit de scalaires : le produit matriciel n’est pas commutatif.
Piège fondamental : en général, \(AB \neq BA\), même quand les deux produits sont définis et de même taille. Voici un contre-exemple élémentaire :
\(A = \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix}, \quad B = \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}\)
\(AB = \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}, \quad BA = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}\)
Ici \(AB \neq 0\) mais \(BA = 0\) : non seulement les produits diffèrent, mais l’un peut être nul sans que l’autre le soit.
Ce contre-exemple illustre un deuxième piège tout aussi important.
Piège — Diviseurs de zéro : il existe des matrices \(A \neq 0\) et \(B \neq 0\) telles que \(AB = 0\). Le produit matriciel n’est pas intègre : la règle « si \(ab = 0\) alors \(a = 0\) ou \(b = 0\) », valable pour les scalaires, est fausse pour les matrices.
Quand \(AB = BA\) ? Deux matrices qui commutent sont dites permutables. Cas classiques : \(A\) commute toujours avec \(I_n\), avec elle-même (et donc avec ses puissances \(A^k\)), et avec tout polynôme en \(A\). L’ensemble des matrices qui commutent avec \(A\) s’appelle le commutant de \(A\).
E. Transposée d’un produit ⋆ 🟠 Prépa
Théorème — Transposée d’un produit
Pour \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) et \(B \in \mathcal{M}_{p,q}(\mathbb{K})\) :
\((AB)^T = B^T A^T\)
L’ordre des facteurs est inversé.
Démonstration (⋆ exigible). Calculons le coefficient \((j,i)\) de \((AB)^T\) :
\(\displaystyle \bigl((AB)^T\bigr)_{j,i} = (AB)_{i,j} = \sum_{k=1}^{p} a_{i,k}\, b_{k,j}\)
Calculons le coefficient \((j,i)\) de \(B^T A^T\) :
\(\displaystyle (B^T A^T)_{j,i} = \sum_{k=1}^{p} (B^T)_{j,k}\, (A^T)_{k,i} = \sum_{k=1}^{p} b_{k,j}\, a_{i,k} = \sum_{k=1}^{p} a_{i,k}\, b_{k,j}\)
Les deux expressions coïncident pour tout \((j,i)\), d’où l’égalité. ■
Pour en savoir plus sur la transposée et ses propriétés, consulte le cours sur la transposée d’une matrice.
F. Compatibilité avec le déterminant et la trace 🟠 Prépa
Le produit se comporte de manière remarquable vis-à-vis de deux invariants fondamentaux des matrices carrées.
Théorème — Déterminant d’un produit (Cauchy-Binet)
Pour \(A, B \in \mathcal{M}_n(\mathbb{K})\) :
\(\det(AB) = \det(A) \cdot \det(B)\)
Le déterminant est un morphisme multiplicatif de \((\mathcal{M}_n(\mathbb{K}), \times)\) dans \((\mathbb{K}, \times)\).
La démonstration complète repose sur les propriétés multilinéaires du déterminant — elle est développée dans le cours dédié. Retiens que cette propriété est l’outil-clé pour montrer qu’un produit de matrices inversibles est inversible.
Propriété — Trace d’un produit
Pour \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) et \(B \in \mathcal{M}_{p,n}(\mathbb{K})\) :
\(\mathrm{tr}(AB) = \mathrm{tr}(BA)\)
Attention : \(AB \in \mathcal{M}_n(\mathbb{K})\) et \(BA \in \mathcal{M}_p(\mathbb{K})\) ne sont pas de même taille en général. Pourtant, leurs traces sont égales.
Démonstration.
\(\displaystyle \mathrm{tr}(AB) = \sum_{i=1}^{n} (AB)_{i,i} = \sum_{i=1}^{n} \sum_{k=1}^{p} a_{i,k}\, b_{k,i} = \sum_{k=1}^{p} \sum_{i=1}^{n} b_{k,i}\, a_{i,k} = \sum_{k=1}^{p} (BA)_{k,k} = \mathrm{tr}(BA)\)
On a simplement interverti les deux sommes finies (toujours licite). ■
Cette propriété, innocente en apparence, est redoutablement utile : elle permet par exemple de montrer que les matrices semblables ont la même trace.
Attention aux généralisations abusives : si \(\mathrm{tr}(AB) = \mathrm{tr}(BA)\), on n’a pas \(\mathrm{tr}(ABC) = \mathrm{tr}(BAC)\) en général. En revanche, la trace est invariante par permutation circulaire : \(\mathrm{tr}(ABC) = \mathrm{tr}(BCA) = \mathrm{tr}(CAB)\) (appliquer deux fois la propriété).
Le tableau suivant récapitule les propriétés algébriques du produit matriciel.
| Propriété | Formule | Condition |
|---|---|---|
| Distributivité à gauche | \(A(B + C) = AB + AC\) | Tailles compatibles |
| Distributivité à droite | \((A + B)C = AC + BC\) | Tailles compatibles |
| Compatibilité scalaire | \(\lambda(AB) = (\lambda A)B = A(\lambda B)\) | \(\lambda \in \mathbb{K}\) |
| Associativité | \((AB)C = A(BC)\) | Tailles compatibles |
| Élément neutre | \(I_n A = A = A I_p\) | \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) |
| Non-commutativité | \(AB \neq BA\) en général | \(n \geq 2\) |
| Transposée | \((AB)^T = B^T A^T\) | Inversion de l’ordre |
| Déterminant | \(\det(AB) = \det(A)\det(B)\) | Matrices carrées |
| Trace | \(\mathrm{tr}(AB) = \mathrm{tr}(BA)\) | \(A \in \mathcal{M}_{n,p}\), \(B \in \mathcal{M}_{p,n}\) |
III. Méthode pas à pas : calculer un produit de matrices
Maîtriser le calcul du produit matriciel demande de la rigueur et de la méthode. Voici la procédure à suivre systématiquement, suivie de deux exemples détaillés et d’une technique avancée : le produit par blocs.
A. Procédure en 4 étapes
- Vérifier la compatibilité : si \(A\) est \(n \times p\) et \(B\) est \(p^\prime \times q\), vérifier que \(p = p^\prime\). Sinon, le produit n’existe pas.
- Déterminer la taille du résultat : \(AB \in \mathcal{M}_{n,q}(\mathbb{K})\). Préparer une matrice vide \(n \times q\).
- Calculer chaque coefficient : pour chaque position \((i,j)\), effectuer le produit scalaire de la ligne \(i\) de \(A\) par la colonne \(j\) de \(B\).
- Vérifier : contrôler au moins un coefficient en recalculant. Pour les matrices carrées, on peut vérifier \(\mathrm{tr}(AB) = \sum_i (AB)_{i,i}\).
B. Exemple complet : produit 2×2
Exemple — Produit de deux matrices 2×2
Calculons \(AB\) avec :
\(A = \begin{pmatrix} 2 & -1 \\ 3 & 4 \end{pmatrix}, \qquad B = \begin{pmatrix} 5 & 0 \\ -2 & 1 \end{pmatrix}\)
Étape 1 : \(A\) est \(2 \times 2\), \(B\) est \(2 \times 2\) → compatible. Résultat : \(2 \times 2\).
Étape 2 : calcul des coefficients :
- \(c_{1,1} = 2 \times 5 + (-1) \times (-2) = 10 + 2 = 12\)
- \(c_{1,2} = 2 \times 0 + (-1) \times 1 = 0 – 1 = -1\)
- \(c_{2,1} = 3 \times 5 + 4 \times (-2) = 15 – 8 = 7\)
- \(c_{2,2} = 3 \times 0 + 4 \times 1 = 0 + 4 = 4\)
Résultat :
\(AB = \begin{pmatrix} 12 & -1 \\ 7 & 4 \end{pmatrix}\)
Vérification : \(\mathrm{tr}(AB) = 12 + 4 = 16\). Par ailleurs, \(\mathrm{tr}(BA) = (5 \times 2 + 0 \times 3) + ((-2)\times(-1) + 1 \times 4) = 10 + 6 = 16\). ✓
C. Exemple complet : produit 3×3
Exemple — Produit de deux matrices 3×3
\(A = \begin{pmatrix} 1 & 0 & 2 \\ -1 & 3 & 1 \\ 0 & 2 & -1 \end{pmatrix}, \qquad B = \begin{pmatrix} 3 & 1 & 0 \\ 0 & -1 & 2 \\ 1 & 0 & 4 \end{pmatrix}\)
Calculons systématiquement les 9 coefficients de \(AB\) :
- Ligne 1 :
\(c_{1,1} = 1 \times 3 + 0 \times 0 + 2 \times 1 = 5\)
\(c_{1,2} = 1 \times 1 + 0 \times (-1) + 2 \times 0 = 1\)
\(c_{1,3} = 1 \times 0 + 0 \times 2 + 2 \times 4 = 8\) - Ligne 2 :
\(c_{2,1} = (-1) \times 3 + 3 \times 0 + 1 \times 1 = -2\)
\(c_{2,2} = (-1) \times 1 + 3 \times (-1) + 1 \times 0 = -4\)
\(c_{2,3} = (-1) \times 0 + 3 \times 2 + 1 \times 4 = 10\) - Ligne 3 :
\(c_{3,1} = 0 \times 3 + 2 \times 0 + (-1) \times 1 = -1\)
\(c_{3,2} = 0 \times 1 + 2 \times (-1) + (-1) \times 0 = -2\)
\(c_{3,3} = 0 \times 0 + 2 \times 2 + (-1) \times 4 = 0\)
Résultat :
\(AB = \begin{pmatrix} 5 & 1 & 8 \\ -2 & -4 & 10 \\ -1 & -2 & 0 \end{pmatrix}\)
D. Produit par blocs 🟠 Prépa
En CPGE, tu rencontreras fréquemment des matrices de grande taille qui se décomposent naturellement en sous-matrices (ou « blocs »). Le produit par blocs permet de calculer \(AB\) en traitant chaque bloc comme un « scalaire », à condition que le découpage soit compatible.
Propriété — Produit par blocs
Si \(A\) est partitionnée en blocs \(A = (A_{i,j})\) et \(B\) en blocs \(B = (B_{j,k})\) de sorte que le nombre de colonnes de bloc dans \(A\) soit égal au nombre de lignes de bloc dans \(B\) (et que chaque produit \(A_{i,j} B_{j,k}\) soit défini), alors :
\(\displaystyle (AB)_{i,k} = \sum_j A_{i,j}\, B_{j,k}\)
La formule est identique à celle du produit scalaire, avec des blocs à la place des scalaires.
Exemple — Produit par blocs
Soit :
\(M = \begin{pmatrix} A & B \\ 0_2 & C \end{pmatrix} \in \mathcal{M}_4(\mathbb{R}), \quad \text{avec } A = \begin{pmatrix} 1 & 2 \\ 0 & 1 \end{pmatrix},\; B = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix},\; C = \begin{pmatrix} 3 & 0 \\ 0 & 3 \end{pmatrix}\)
Calculons \(M^2\) par blocs :
\(M^2 = \begin{pmatrix} A & B \\ 0 & C \end{pmatrix} \begin{pmatrix} A & B \\ 0 & C \end{pmatrix} = \begin{pmatrix} A^2 + B \cdot 0 & AB + BC \\ 0 \cdot A + C \cdot 0 & 0 \cdot B + C^2 \end{pmatrix} = \begin{pmatrix} A^2 & AB + BC \\ 0 & C^2 \end{pmatrix}\)
Il suffit de calculer \(A^2\), \(AB + BC\) et \(C^2 = 9I_2\) séparément. En tirant parti de la structure triangulaire supérieure par blocs, le calcul est considérablement allégé.
Le produit par blocs est omniprésent en algèbre linéaire : matrices triangulaires par blocs, matrices diagonales par blocs, et réduction sous forme canonique.
La fiche de synthèse : produit matriciel
Définition, règle ligne × colonne, toutes les propriétés algébriques et les 4 pièges classiques — condensés sur une page recto.
📄 Télécharger la fiche PDFIdéale pour réviser avant un DS ou un concours blanc.
IV. Applications du produit matriciel
Le produit matriciel n’est pas qu’une opération de calcul : il intervient dans presque tous les domaines de l’algèbre linéaire et au-delà. Voici les applications les plus importantes du programme de CPGE.
A. Écriture matricielle d’un système linéaire
Un système de \(n\) équations linéaires à \(p\) inconnues s’écrit de manière compacte sous la forme :
\(AX = B\)
où \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) est la matrice des coefficients, \(X \in \mathcal{M}_{p,1}(\mathbb{K})\) le vecteur colonne des inconnues, et \(B \in \mathcal{M}_{n,1}(\mathbb{K})\) le second membre.
Exemple : le système :
\(\begin{cases} 2x + 3y – z = 1 \\ x – y + 2z = 0 \\ 3x + 2y + z = 5 \end{cases}\)
s’écrit \(AX = B\) avec :
\(A = \begin{pmatrix} 2 & 3 & -1 \\ 1 & -1 & 2 \\ 3 & 2 & 1 \end{pmatrix}, \quad X = \begin{pmatrix} x \\ y \\ z \end{pmatrix}, \quad B = \begin{pmatrix} 1 \\ 0 \\ 5 \end{pmatrix}\)
Si \(A\) est inversible, la solution unique est \(X = A^{-1}B\) — ce qui se calcule via l’inversion de matrice.
B. Puissances d’une matrice
L’associativité du produit permet de définir \(A^k = \underbrace{A \times A \times \cdots \times A}_{k \text{ fois}}\) pour tout \(k \in \mathbb{N}\) (avec la convention \(A^0 = I_n\)). Le calcul de \(A^n\) intervient dans les suites récurrentes linéaires : si \(U_{n+1} = AU_n\), alors \(U_n = A^n U_0\).
Pour calculer efficacement \(A^n\), on utilise la diagonalisation : si \(A = PDP^{-1}\) avec \(D\) diagonale, alors \(A^n = PD^nP^{-1}\) et \(D^n\) se calcule coefficient par coefficient. Les détails sont développés dans le cours sur les puissances de matrices.
C. Composition d’applications linéaires 🟠 Prépa
Le produit matriciel a été construit pour encoder la composition : si \(f\) a pour matrice \(A\) dans une base donnée et \(g\) a pour matrice \(B\), alors \(f \circ g\) a pour matrice \(AB\). C’est la raison profonde de la formule « ligne × colonne » et de la non-commutativité (la composition de fonctions n’est pas commutative non plus).
Cette interprétation est fondamentale en géométrie : les matrices de rotation composées donnent la matrice de la rotation composée. Par exemple, la composition de deux rotations du plan d’angles \(\theta\) et \(\varphi\) correspond au produit :
\(R(\theta) \cdot R(\varphi) = R(\theta + \varphi)\)
formule qu’on retrouve en multipliant les matrices :
\(\begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix} \begin{pmatrix} \cos\varphi & -\sin\varphi \\ \sin\varphi & \cos\varphi \end{pmatrix} = \begin{pmatrix} \cos(\theta+\varphi) & -\sin(\theta+\varphi) \\ \sin(\theta+\varphi) & \cos(\theta+\varphi) \end{pmatrix}\)
et en reconnaissant les formules d’addition de la trigonométrie dans chaque coefficient.
V. Exercices corrigés
Voici 8 exercices classés par difficulté croissante. Les exercices ★ relèvent de l’application directe, les ★★ de l’approfondissement, les ★★★ sont de niveau concours.
Exercice 1 ★ — Produit 2×2 et non-commutativité ⏱ ~5 min
Soient \(A = \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}\) et \(B = \begin{pmatrix} 0 & 1 \\ -1 & 2 \end{pmatrix}\).
- Calculer \(AB\).
- Calculer \(BA\).
- A-t-on \(AB = BA\) ?
Voir la correction
1. Calcul de \(AB\) :
\(AB = \begin{pmatrix} 1 \times 0 + 2 \times (-1) & 1 \times 1 + 2 \times 2 \\ 3 \times 0 + 4 \times (-1) & 3 \times 1 + 4 \times 2 \end{pmatrix} = \begin{pmatrix} -2 & 5 \\ -4 & 11 \end{pmatrix}\)
2. Calcul de \(BA\) :
\(BA = \begin{pmatrix} 0 \times 1 + 1 \times 3 & 0 \times 2 + 1 \times 4 \\ (-1) \times 1 + 2 \times 3 & (-1) \times 2 + 2 \times 4 \end{pmatrix} = \begin{pmatrix} 3 & 4 \\ 5 & 6 \end{pmatrix}\)
3. On constate que \(AB = \begin{pmatrix} -2 & 5 \\ -4 & 11 \end{pmatrix} \neq \begin{pmatrix} 3 & 4 \\ 5 & 6 \end{pmatrix} = BA\). Le produit matriciel n’est pas commutatif.
Exercice 2 ★ — Produit rectangulaire ⏱ ~5 min
Soient \(A = \begin{pmatrix} 1 & 0 & -1 \\ 2 & 3 & 1 \end{pmatrix} \in \mathcal{M}_{2,3}(\mathbb{R})\) et \(B = \begin{pmatrix} 2 & 1 \\ 0 & -1 \\ 3 & 4 \end{pmatrix} \in \mathcal{M}_{3,2}(\mathbb{R})\).
- Calculer \(AB\). Quelle est la taille du résultat ?
- Calculer \(BA\). Quelle est la taille du résultat ?
Voir la correction
1. \(A\) est \(2 \times 3\) et \(B\) est \(3 \times 2\) : compatible, résultat \(2 \times 2\).
\(AB = \begin{pmatrix} 1 \times 2 + 0 \times 0 + (-1) \times 3 & 1 \times 1 + 0 \times (-1) + (-1) \times 4 \\ 2 \times 2 + 3 \times 0 + 1 \times 3 & 2 \times 1 + 3 \times (-1) + 1 \times 4 \end{pmatrix} = \begin{pmatrix} -1 & -3 \\ 7 & 3 \end{pmatrix}\)
2. \(B\) est \(3 \times 2\) et \(A\) est \(2 \times 3\) : compatible, résultat \(3 \times 3\).
\(BA = \begin{pmatrix} 2 \times 1 + 1 \times 2 & 2 \times 0 + 1 \times 3 & 2 \times (-1) + 1 \times 1 \\ 0 \times 1 + (-1) \times 2 & 0 \times 0 + (-1) \times 3 & 0 \times (-1) + (-1) \times 1 \\ 3 \times 1 + 4 \times 2 & 3 \times 0 + 4 \times 3 & 3 \times (-1) + 4 \times 1 \end{pmatrix} = \begin{pmatrix} 4 & 3 & -1 \\ -2 & -3 & -1 \\ 11 & 12 & 1 \end{pmatrix}\)
Remarque : \(AB \in \mathcal{M}_2(\mathbb{R})\) et \(BA \in \mathcal{M}_3(\mathbb{R})\). Les deux produits ne sont même pas de la même taille !
Exercice 3 ★★ — Produit 3×3 ⏱ ~10 min
Soient :
\(A = \begin{pmatrix} 2 & -1 & 0 \\ 1 & 3 & -2 \\ 0 & 1 & 4 \end{pmatrix}, \qquad B = \begin{pmatrix} 1 & 0 & 3 \\ -1 & 2 & 1 \\ 2 & -1 & 0 \end{pmatrix}\)
Calculer \(AB\).
Voir la correction
On calcule ligne par ligne :
Ligne 1 :
- \(c_{1,1} = 2 \times 1 + (-1) \times (-1) + 0 \times 2 = 2 + 1 + 0 = 3\)
- \(c_{1,2} = 2 \times 0 + (-1) \times 2 + 0 \times (-1) = 0 – 2 + 0 = -2\)
- \(c_{1,3} = 2 \times 3 + (-1) \times 1 + 0 \times 0 = 6 – 1 + 0 = 5\)
Ligne 2 :
- \(c_{2,1} = 1 \times 1 + 3 \times (-1) + (-2) \times 2 = 1 – 3 – 4 = -6\)
- \(c_{2,2} = 1 \times 0 + 3 \times 2 + (-2) \times (-1) = 0 + 6 + 2 = 8\)
- \(c_{2,3} = 1 \times 3 + 3 \times 1 + (-2) \times 0 = 3 + 3 + 0 = 6\)
Ligne 3 :
- \(c_{3,1} = 0 \times 1 + 1 \times (-1) + 4 \times 2 = 0 – 1 + 8 = 7\)
- \(c_{3,2} = 0 \times 0 + 1 \times 2 + 4 \times (-1) = 0 + 2 – 4 = -2\)
- \(c_{3,3} = 0 \times 3 + 1 \times 1 + 4 \times 0 = 0 + 1 + 0 = 1\)
Résultat :
\(AB = \begin{pmatrix} 3 & -2 & 5 \\ -6 & 8 & 6 \\ 7 & -2 & 1 \end{pmatrix}\)
Vérification par la trace : \(\mathrm{tr}(AB) = 3 + 8 + 1 = 12\). On calcule \(\mathrm{tr}(BA)\) : le coefficient \((1,1)\) de \(BA\) vaut \(1 \times 2 + 0 \times 1 + 3 \times 0 = 2\), le \((2,2)\) vaut \((-1) \times (-1) + 2 \times 3 + 1 \times 1 = 8\), le \((3,3)\) vaut \(2 \times 0 + (-1) \times (-2) + 0 \times 4 = 2\). Donc \(\mathrm{tr}(BA) = 2 + 8 + 2 = 12 = \mathrm{tr}(AB)\). ✓
Exercice 4 ★★ — Puissances d’une matrice nilpotente 🟠 Prépa ⏱ ~8 min
Soit \(N = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix}\).
- Calculer \(N^2\).
- Calculer \(N^3\).
- Que constate-t-on ? Justifier.
Voir la correction
1.
\(N^2 = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix} \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix} = \begin{pmatrix} 0 & 0 & 1 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}\)
2.
\(N^3 = N^2 \cdot N = \begin{pmatrix} 0 & 0 & 1 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix} \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix} = \begin{pmatrix} 0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix} = 0_3\)
3. On constate que \(N^3 = 0_3\) : la matrice \(N\) est nilpotente d’indice 3. Cela se comprend en remarquant que \(N\) est strictement triangulaire supérieure : toute matrice strictement triangulaire de taille \(n\) est nilpotente d’indice au plus \(n\).
Exercice 5 ★★ — Écriture matricielle et vérification ⏱ ~8 min
On considère le système linéaire :
\(\begin{cases} x + 2y – z = 3 \\ 2x – y + 3z = 1 \\ x + y + z = 4 \end{cases}\)
- Écrire ce système sous la forme \(AX = B\).
- Vérifier que \(X_0 = \begin{pmatrix} 1 \\ 2 \\ 1 \end{pmatrix}\) est solution en calculant le produit \(AX_0\).
Voir la correction
1. On pose :
\(A = \begin{pmatrix} 1 & 2 & -1 \\ 2 & -1 & 3 \\ 1 & 1 & 1 \end{pmatrix}, \quad X = \begin{pmatrix} x \\ y \\ z \end{pmatrix}, \quad B = \begin{pmatrix} 3 \\ 1 \\ 4 \end{pmatrix}\)
Le système s’écrit \(AX = B\).
2. Calculons \(AX_0\) :
\(AX_0 = \begin{pmatrix} 1 \times 1 + 2 \times 2 + (-1) \times 1 \\ 2 \times 1 + (-1) \times 2 + 3 \times 1 \\ 1 \times 1 + 1 \times 2 + 1 \times 1 \end{pmatrix} = \begin{pmatrix} 1 + 4 – 1 \\ 2 – 2 + 3 \\ 1 + 2 + 1 \end{pmatrix} = \begin{pmatrix} 4 \\ 3 \\ 4 \end{pmatrix}\)
Or \(B = \begin{pmatrix} 3 \\ 1 \\ 4 \end{pmatrix}\) et \(AX_0 = \begin{pmatrix} 4 \\ 3 \\ 4 \end{pmatrix} \neq B\). Donc \(X_0\) n’est pas solution du système.
Note : c’est un piège volontaire. Toujours vérifier par le calcul plutôt que de « deviner » la solution.
Exercice 6 ★★★ — Produit par blocs 🟠 Prépa ⏱ ~15 min
Soit \(M = \begin{pmatrix} I_2 & A \\ 0_2 & I_2 \end{pmatrix} \in \mathcal{M}_4(\mathbb{R})\), avec \(A = \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}\).
- Calculer \(M^2\) par blocs.
- Calculer \(M^n\) pour tout \(n \in \mathbb{N}\) (on pourra conjecturer puis démontrer par récurrence).
Voir la correction
1. Par produit par blocs :
\(M^2 = \begin{pmatrix} I_2 & A \\ 0 & I_2 \end{pmatrix}^2 = \begin{pmatrix} I_2^2 + A \cdot 0 & I_2 \cdot A + A \cdot I_2 \\ 0 \cdot I_2 + I_2 \cdot 0 & 0 \cdot A + I_2^2 \end{pmatrix} = \begin{pmatrix} I_2 & 2A \\ 0 & I_2 \end{pmatrix}\)
2. Conjecture : \(M^n = \begin{pmatrix} I_2 & nA \\ 0 & I_2 \end{pmatrix}\) pour tout \(n \in \mathbb{N}\).
Démonstration par récurrence.
Initialisation : pour \(n = 0\), \(M^0 = I_4 = \begin{pmatrix} I_2 & 0 \\ 0 & I_2 \end{pmatrix} = \begin{pmatrix} I_2 & 0 \cdot A \\ 0 & I_2 \end{pmatrix}\). ✓
Hérédité : supposons \(M^n = \begin{pmatrix} I_2 & nA \\ 0 & I_2 \end{pmatrix}\). Alors :
\(M^{n+1} = M^n \cdot M = \begin{pmatrix} I_2 & nA \\ 0 & I_2 \end{pmatrix} \begin{pmatrix} I_2 & A \\ 0 & I_2 \end{pmatrix} = \begin{pmatrix} I_2 & A + nA \\ 0 & I_2 \end{pmatrix} = \begin{pmatrix} I_2 & (n+1)A \\ 0 & I_2 \end{pmatrix}\)
La propriété est héréditaire. Par le principe de récurrence :
\(\displaystyle\forall\, n \in \mathbb{N}, \quad M^n = \begin{pmatrix} I_2 & nA \\ 0 & I_2 \end{pmatrix}\)
Exercice 7 ★★★ — Matrice idempotente 🟠 Prépa ⏱ ~10 min
Soit \(A \in \mathcal{M}_n(\mathbb{K})\) telle que \(A^2 = A\) (on dit que \(A\) est idempotente).
- Montrer que \((I_n – A)^2 = I_n – A\).
- En déduire que \(A(I_n – A) = 0_n\).
- Déterminer les valeurs possibles de \(\mathrm{tr}(A)\) lorsque \(A \neq 0_n\) et \(A \neq I_n\).
Voir la correction
1. On développe en utilisant la distributivité et \(A^2 = A\) :
\((I_n – A)^2 = I_n^2 – I_n A – A I_n + A^2 = I_n – A – A + A = I_n – A\)
Donc \(I_n – A\) est aussi idempotente.
2. On calcule :
\(A(I_n – A) = A – A^2 = A – A = 0_n\)
Remarque : les matrices \(A\) et \(I_n – A\) sont toutes deux non nulles (puisque \(A \neq 0_n\) et \(A \neq I_n\)), pourtant leur produit est nul. C’est un exemple concret de diviseurs de zéro dans \(\mathcal{M}_n(\mathbb{K})\).
3. On admet (ou on montre en utilisant les valeurs propres) que les seules valeurs propres d’une matrice idempotente sont \(0\) et \(1\). La trace, étant la somme des valeurs propres (comptées avec multiplicité), est un entier \(r\) avec \(0 \leq r \leq n\). Puisque \(A \neq 0_n\) et \(A \neq I_n\), on a \(r \in \{1, 2, \ldots, n-1\}\). En fait, \(r = \mathrm{rg}(A)\).
Exercice 8 ★★★ — Diviseurs de zéro 🟠 Prépa ⏱ ~12 min
1. Trouver deux matrices \(A, B \in \mathcal{M}_2(\mathbb{R})\), toutes deux non nulles, telles que \(AB = 0_2\).
2. Montrer que si \(AB = 0_n\) avec \(B \neq 0_n\), alors \(A\) n’est pas inversible.
3. Montrer que si \(A\) et \(B\) sont inversibles, alors \(AB\) est inversible et donner \((AB)^{-1}\).
Voir la correction
1. On peut prendre :
\(A = \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix}, \quad B = \begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix}\)
Vérifions : \(AB = \begin{pmatrix} 1 \times 0 + 0 \times 1 & 1 \times 0 + 0 \times 0 \\ 0 \times 0 + 0 \times 1 & 0 \times 0 + 0 \times 0 \end{pmatrix} = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix} = 0_2\). ✓
Pourtant \(A \neq 0_2\) et \(B \neq 0_2\).
2. Raisonnement par l’absurde. Supposons \(A\) inversible. Alors on peut multiplier \(AB = 0_n\) à gauche par \(A^{-1}\) :
\(A^{-1}(AB) = A^{-1} \cdot 0_n \;\Rightarrow\; (A^{-1}A)B = 0_n \;\Rightarrow\; I_n B = 0_n \;\Rightarrow\; B = 0_n\)
Ceci contredit \(B \neq 0_n\). Donc \(A\) n’est pas inversible.
De même, on montre que \(B\) n’est pas inversible (multiplier à droite par \(B^{-1}\)).
3. Si \(A\) et \(B\) sont inversibles, posons \(C = B^{-1}A^{-1}\). Alors :
\((AB)C = A(BC) = A(B \cdot B^{-1}A^{-1}) = A(I_n A^{-1}) = AA^{-1} = I_n\)
De même \(C(AB) = I_n\). Donc \(AB\) est inversible et :
\((AB)^{-1} = B^{-1}A^{-1}\)
L’ordre est inversé, comme pour la transposée.
Tu veux t’entraîner davantage ? Découvre nos exercices corrigés sur les matrices — 20+ problèmes du calcul direct au concours.
VI. Erreurs fréquentes et pièges classiques
Les copies de concours regorgent d’erreurs liées au produit matriciel. Voici les quatre pièges les plus fréquents, illustrés par des « copies fautives » commentées.
Erreur n°1 — Commutatif par réflexe
❌ Copie fautive : « On développe \((A + B)^2 = A^2 + 2AB + B^2\). »
Diagnostic : le passage de \((A+B)^2\) à \(A^2 + 2AB + B^2\) utilise implicitement \(AB = BA\). Cette identité algébrique des scalaires est fausse pour les matrices en général.
✅ Correction : \((A + B)^2 = A^2 + AB + BA + B^2\). Ce n’est simplifiable en \(A^2 + 2AB + B^2\) que si \(A\) et \(B\) commutent.
Erreur n°2 — Simplification par un produit nul
❌ Copie fautive : « \(AB = AC\), donc en simplifiant par \(A\), on obtient \(B = C\). »
Diagnostic : cette « simplification » revient à multiplier par \(A^{-1}\) — ce qui n’est licite que si \(A\) est inversible. Si \(A\) n’est pas inversible, \(AB = AC\) n’implique pas \(B = C\) (contre-exemple : \(A = \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix}\), \(B = \begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix}\), \(C = \begin{pmatrix} 1 & 0 \\ 2 & 0 \end{pmatrix}\)).
✅ Correction : \(AB = AC \;\Rightarrow\; A(B – C) = 0\). On conclut \(B = C\) seulement si \(A\) est inversible (ou si \(\ker A = \{0\}\)).
Erreur n°3 — Dimensions non vérifiées
❌ Copie fautive : « On calcule \(A + AB\) avec \(A \in \mathcal{M}_{2,3}(\mathbb{R})\) et \(B \in \mathcal{M}_{3,2}(\mathbb{R})\). »
Diagnostic : \(AB \in \mathcal{M}_{2,2}(\mathbb{R})\) mais \(A \in \mathcal{M}_{2,3}(\mathbb{R})\). L’addition \(A + AB\) est impossible : les tailles diffèrent.
✅ Réflexe : avant toute opération, écrire les tailles et vérifier la compatibilité.
Erreur n°4 — Produit « coefficient par coefficient »
❌ Copie fautive : \(\begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix} \begin{pmatrix} 5 & 6 \\ 7 & 8 \end{pmatrix} = \begin{pmatrix} 5 & 12 \\ 21 & 32 \end{pmatrix}\)
Diagnostic : l’étudiant a multiplié les coefficients en position correspondante (\(1 \times 5\), \(2 \times 6\)…). C’est le produit de Hadamard (noté \(A \circ B\) ou \(A \odot B\)), pas le produit matriciel standard.
✅ Le vrai résultat : \(\begin{pmatrix} 1 \times 5 + 2 \times 7 & 1 \times 6 + 2 \times 8 \\ 3 \times 5 + 4 \times 7 & 3 \times 6 + 4 \times 8 \end{pmatrix} = \begin{pmatrix} 19 & 22 \\ 43 & 50 \end{pmatrix}\)
VII. Questions fréquentes
Comment faire la multiplication de deux matrices ?
Pour multiplier \(A\) (de taille \(n \times p\)) par \(B\) (de taille \(p \times q\)) : vérifie d’abord que le nombre de colonnes de \(A\) est égal au nombre de lignes de \(B\). Le coefficient \((i,j)\) du produit est le produit scalaire de la ligne \(i\) de \(A\) par la colonne \(j\) de \(B\) : \(\displaystyle c_{i,j} = \sum_{k=1}^{p} a_{i,k}\, b_{k,j}\). Le résultat est une matrice \(n \times q\).
Quelle est la différence entre le produit matriciel et le produit terme à terme ?
Le produit matriciel (ou produit standard) utilise la règle « ligne × colonne » et donne un résultat qui encode la composition des applications linéaires. Le produit terme à terme (ou produit de Hadamard, noté \(A \circ B\)) multiplie les coefficients en position correspondante : \((A \circ B)_{i,j} = a_{i,j} \cdot b_{i,j}\). Le produit de Hadamard est commutatif mais n’a pas de lien avec la composition — il est rarement utilisé en CPGE.
Peut-on multiplier une matrice 2×3 par une matrice 2×3 ?
Non. Pour que le produit \(AB\) soit défini, il faut que le nombre de colonnes de \(A\) soit égal au nombre de lignes de \(B\). Ici, \(A\) a 3 colonnes et \(B\) a 2 lignes : \(3 \neq 2\), donc le produit n’est pas défini. En revanche, \(A \cdot B^T\) est défini (taille \(2 \times 2\)).
Pourquoi le produit de matrices n'est-il pas commutatif ?
Le produit matriciel encode la composition des applications linéaires, et composer \(f \circ g\) n’est pas la même chose que \(g \circ f\) en général. Concrètement, dans la formule \(\displaystyle (AB)_{i,j} = \sum_k a_{i,k}\, b_{k,j}\), les rôles de \(A\) et \(B\) ne sont pas symétriques : \(A\) fournit les lignes et \(B\) les colonnes. Intervertir \(A\) et \(B\) change en général tous les coefficients.
Quelles sont les propriétés de la multiplication matricielle ?
Le produit matriciel est associatif (\((AB)C = A(BC)\)), bilinéaire (distributif par rapport à l’addition, compatible avec la multiplication scalaire), et admet la matrice identité \(I_n\) comme élément neutre. En revanche, il n’est pas commutatif pour \(n \geq 2\) et admet des diviseurs de zéro (\(AB = 0\) n’implique pas \(A = 0\) ou \(B = 0\)). Pour les matrices carrées : \(\det(AB) = \det(A)\det(B)\) et \(\mathrm{tr}(AB) = \mathrm{tr}(BA)\).
VIII. Pour aller plus loin
Tu maîtrises maintenant le produit matriciel — sa définition, ses propriétés et les techniques de calcul. Pour progresser en algèbre linéaire, voici les étapes suivantes :
- 📖 Cours complet sur les matrices — le hub qui relie tous les chapitres d’algèbre linéaire
- Inverse d’une matrice : méthode de calcul et propriétés — l’opération « réciproque » du produit
- Déterminant d’une matrice : calcul, propriétés et applications — l’invariant multiplicatif fondamental
- Matrice puissance : calcul de \(A^n\) — exploiter le produit itéré via la diagonalisation
- Matrice d’une application linéaire — comprendre pourquoi le produit encode la composition
- Factorisation de Gauss (LU) — décomposer une matrice en produit de matrices triangulaires
- ✏️ 20+ exercices corrigés sur les matrices — du calcul direct au concours X/Mines/Centrale