Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec le niveau d’exigence attendu en classe préparatoire. Découvrir le professeur
Résoudre \(AX = B\) exige d’inverser \(A\) — c’est l’analogue matriciel de la division. Ce cours développe la théorie complète de l’inversibilité en CPGE : définition formelle, propriétés algébriques avec démonstrations exigibles, et trois méthodes de calcul (formule \(2 \times 2\), Gauss-Jordan, comatrice), illustrées par 4 exemples résolus et 8 exercices corrigés. Conforme au programme de mathématiques des CPGE scientifiques 2025-2026.
I. Définition et contexte
A. Définition formelle
Soit \(\mathbb{K}\) un corps (\(\mathbb{R}\) ou \(\mathbb{C}\)) et \(n \in \mathbb{N}^*\). On note \(\mathcal{M}_n(\mathbb{K})\) l’ensemble des matrices carrées d’ordre \(n\) à coefficients dans \(\mathbb{K}\), et \(I_n\) la matrice identité d’ordre \(n\).
Définition — Matrice inversible et matrice inverse
Une matrice \(A \in \mathcal{M}_n(\mathbb{K})\) est dite inversible s’il existe une matrice \(B \in \mathcal{M}_n(\mathbb{K})\) telle que :
\(AB = BA = I_n\)
La matrice \(B\) est alors unique (cf. ci-dessous) et s’appelle l’inverse de \(A\), notée \(A^{-1}\).
En dimension finie, une seule vérification suffit. Si \(AB = I_n\), alors automatiquement \(BA = I_n\). En effet, \(\det(AB) = \det(A)\det(B) = 1\), donc \(\det(A) \neq 0\) et \(A\) admet un inverse \(C\). Alors \(B = I_nB = (CA)B = C(AB) = CI_n = C\), d’où \(BA = CA = I_n\). Ce résultat est faux en dimension infinie.
B. Unicité de l’inverse
L’unicité est un résultat fondamental, dont la démonstration est exigible.
Proposition — Unicité de l’inverse ⋆
Si \(A \in \mathcal{M}_n(\mathbb{K})\) est inversible, alors son inverse est unique.
Démonstration. Supposons que \(B\) et \(C\) soient deux inverses de \(A\), c’est-à-dire \(AB = BA = I_n\) et \(AC = CA = I_n\). Alors :
\(B = BI_n = B(AC) = (BA)C = I_nC = C\)Donc \(B = C\). L’inverse est bien unique. ∎
C. Critère fondamental : déterminant et inversibilité
Le lien entre inversibilité et déterminant est la caractérisation la plus utilisée en pratique.
Théorème — Caractérisation par le déterminant ⋆
Soit \(A \in \mathcal{M}_n(\mathbb{K})\). Les assertions suivantes sont équivalentes :
- \(A\) est inversible
- \(\det(A) \neq 0\)
- \(\mathrm{rg}(A) = n\)
- \(\ker(A) = \{0\}\)
L’équivalence (1) ⟺ (2) se démontre via la formule de la comatrice : si \(\det(A) \neq 0\), on exhibe explicitement \(A^{-1} = \displaystyle\frac{1}{\det(A)}\,{}^t\!\mathrm{Com}(A)\). Réciproquement, \(A\) inversible implique \(\det(A)\det(A^{-1}) = \det(I_n) = 1\), donc \(\det(A) \neq 0\). Les liens avec le rang et le noyau seront développés dans les pages dédiées.
Attention : ce critère ne s’applique qu’aux matrices carrées. Une matrice rectangulaire \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) avec \(n \neq p\) ne possède jamais d’inverse au sens de la définition ci-dessus (même si elle peut avoir un inverse à gauche ou à droite).
II. Propriétés de la matrice inverse
Les propriétés algébriques de l’inverse sont essentielles pour le calcul et le raisonnement. Certaines démonstrations sont exigibles — elles sont marquées ⋆.
A. Propriétés algébriques fondamentales
Propriétés — Matrice inverse
Soient \(A, B \in \mathcal{M}_n(\mathbb{K})\) inversibles et \(\lambda \in \mathbb{K}^*\). Alors :
- \((A^{-1})^{-1} = A\)
- \((AB)^{-1} = B^{-1}A^{-1}\) (attention à l’ordre !)
- \((\lambda A)^{-1} = \displaystyle\frac{1}{\lambda}\,A^{-1}\)
- \(({}^tA)^{-1} = {}^t(A^{-1})\)
- \(\det(A^{-1}) = \displaystyle\frac{1}{\det(A)}\)
- Pour tout \(k \in \mathbb{Z}\), \(A^k\) est inversible et \((A^k)^{-1} = (A^{-1})^k = A^{-k}\)
La propriété (2) est la plus importante et la plus piégeuse : l’ordre s’inverse. C’est une conséquence directe de la non-commutativité du produit matriciel. Elle se généralise : pour \(A_1, \ldots, A_p\) inversibles,
\((A_1 A_2 \cdots A_p)^{-1} = A_p^{-1} \cdots A_2^{-1} A_1^{-1}\)B. Le groupe linéaire \(GL_n(\mathbb{K})\)
L’ensemble des matrices inversibles porte une structure algébrique riche.
Définition — Groupe linéaire
On note \(GL_n(\mathbb{K}) = \{A \in \mathcal{M}_n(\mathbb{K}) \mid \det(A) \neq 0\}\) l’ensemble des matrices inversibles d’ordre \(n\). Muni du produit matriciel, \((GL_n(\mathbb{K}), \times)\) est un groupe (non commutatif pour \(n \geq 2\)).
Vérification des axiomes :
- Stabilité : si \(A, B \in GL_n(\mathbb{K})\), alors \(\det(AB) = \det(A)\det(B) \neq 0\), donc \(AB \in GL_n(\mathbb{K})\).
- Associativité : héritée de \(\mathcal{M}_n(\mathbb{K})\).
- Élément neutre : \(I_n \in GL_n(\mathbb{K})\) car \(\det(I_n) = 1\).
- Inverse : si \(A \in GL_n(\mathbb{K})\), alors \(A^{-1} \in GL_n(\mathbb{K})\) car \(\det(A^{-1}) = 1/\det(A) \neq 0\).
Le groupe linéaire apparaît dans de nombreux contextes : changements de base, diagonalisation (\(P \in GL_n(\mathbb{K})\) est la matrice de passage), et matrices orthogonales (\(O_n(\mathbb{R}) \subset GL_n(\mathbb{R})\)).
C. Démonstrations exigibles ⋆
Démonstration de (2) : \((AB)^{-1} = B^{-1}A^{-1}\).
Il suffit de vérifier que \(B^{-1}A^{-1}\) est l’inverse de \(AB\). Calculons :
\((AB)(B^{-1}A^{-1}) = A(BB^{-1})A^{-1} = AI_nA^{-1} = AA^{-1} = I_n\)Par unicité de l’inverse, \((AB)^{-1} = B^{-1}A^{-1}\). ∎
Démonstration de (4) : \(({}^tA)^{-1} = {}^t(A^{-1})\).
On utilise la propriété \({}^t(AB) = {}^tB \cdot {}^tA\) (cf. transposée d’une matrice). Alors :
\({}^tA \cdot {}^t(A^{-1}) = {}^t(A^{-1}A) = {}^t(I_n) = I_n\)Donc \({}^t(A^{-1})\) est l’inverse de \({}^tA\). ∎
Démonstration de (5) : \(\det(A^{-1}) = 1/\det(A)\).
\(\det(A)\det(A^{-1}) = \det(AA^{-1}) = \det(I_n) = 1\), d’où \(\det(A^{-1}) = \displaystyle\frac{1}{\det(A)}\). ∎
Ces propriétés sont le socle sur lequel reposent les trois méthodes de calcul qui suivent.
Fiche de synthèse — Inverse d’une matrice
Définition, propriétés, formules 2×2 et 3×3, arbre décisionnel et pièges classiques : tout le cours en une page recto-verso.
📄 Télécharger la fiche PDFIdéal pour réviser avant un DS ou un concours blanc.
III. Trois méthodes de calcul de l’inverse
On dispose de trois approches pour calculer \(A^{-1}\), chacune adaptée à un contexte différent.
A. Formule directe en dimension 2
Formule — Inverse d’une matrice 2×2
Soit \(A = \begin{pmatrix} a & b \\ c & d \end{pmatrix} \in \mathcal{M}_2(\mathbb{K})\) avec \(\det(A) = ad – bc \neq 0\). Alors :
\(A^{-1} = \displaystyle\frac{1}{ad – bc}\begin{pmatrix} d & -b \\ -c & a \end{pmatrix}\)
La règle est simple : on échange les coefficients diagonaux, on change le signe des coefficients anti-diagonaux, et on divise par le déterminant. Cette formule est immédiate et sans risque d’erreur pour \(n = 2\). Pour un traitement approfondi avec de nombreux exemples, voir la page dédiée inverse d’une matrice 2×2.
B. Algorithme de Gauss-Jordan
C’est la méthode universelle, efficace pour toute taille \(n\). Elle repose sur la méthode du pivot de Gauss.
Méthode — Algorithme de Gauss-Jordan
- Former la matrice augmentée \((A \mid I_n)\).
- Appliquer des opérations élémentaires sur les lignes pour transformer \(A\) en \(I_n\) (phase descendante puis montante).
- Lire le résultat : la partie droite est \(A^{-1}\).
- Si un pivot nul apparaît sans possibilité de permutation, \(A\) n’est pas inversible.
Les opérations élémentaires autorisées sont : \(L_i \leftrightarrow L_j\) (échange de lignes), \(L_i \leftarrow \lambda L_i\) avec \(\lambda \neq 0\) (dilatation), \(L_i \leftarrow L_i + \lambda L_j\) (transvection). Chaque opération revient à multiplier à gauche par une matrice inversible — ce qui préserve l’inversibilité et transforme la partie droite en \(A^{-1}\).
Erreur fatale en concours : appliquer des opérations sur les colonnes au lieu des lignes. Seules les opérations sur les lignes sont licites dans l’algorithme de Gauss-Jordan pour le calcul de l’inverse.
Cette méthode est développée avec des exemples 3×3 complets dans la page inverse d’une matrice 3×3.
C. Formule par la comatrice
Cette formule donne une expression explicite de \(A^{-1}\) en fonction des cofacteurs de \(A\).
Théorème — Formule de la comatrice ⋆
Soit \(A \in GL_n(\mathbb{K})\). Alors :
\(A^{-1} = \displaystyle\frac{1}{\det(A)}\,{}^t\!\mathrm{Com}(A)\)
où \(\mathrm{Com}(A) = \bigl(C_{ij}\bigr)_{1 \leq i,j \leq n}\) est la comatrice de \(A\), avec \(C_{ij} = (-1)^{i+j}\,M_{ij}\) le cofacteur associé au mineur \(M_{ij}\) (déterminant de la sous-matrice obtenue en supprimant la ligne \(i\) et la colonne \(j\)).
Cette formule est surtout utilisée en dimension 2 et 3 (où elle est efficace) et pour les matrices avec paramètres (elle fournit une expression littérale directe de \(A^{-1}\)). En dimension \(n \geq 4\), le coût de calcul des cofacteurs la rend prohibitive — on lui préfère Gauss-Jordan. La théorie complète de la comatrice et de la matrice adjointe est développée dans la page dédiée.
D. Quelle méthode choisir ?
Le tableau suivant résume les critères de choix — un outil de décision qu’aucun correcteur de concours ne refusera sur une copie.
| Méthode | Taille | Complexité | Avantage principal | Quand l’utiliser |
|---|---|---|---|---|
| Formule directe | \(n = 2\) | Immédiat | Instantanée, sans risque | Toujours pour \(n = 2\) |
| Gauss-Jordan | \(n \geq 2\) | \(O(n^3)\) | Universelle, efficace | Calcul explicite, tout \(n\) |
| Comatrice | \(n \geq 2\) | \(O(n!\cdot n^2)\) | Formule littérale | Matrices à paramètre, \(n \leq 3\) |
En concours : pour un calcul effectif, utilise toujours Gauss-Jordan (sûr, rapide, systématique). Réserve la comatrice aux questions théoriques (« exprimer \(A^{-1}\) en fonction de \(a\) ») et aux preuves d’existence.
Voyons maintenant ces trois méthodes en action sur des exemples concrets.
IV. Exemples résolus
A. Exemple 1 — Inverse d’une matrice 2×2 (★)
Exemple : Soit \(A = \begin{pmatrix} 3 & 5 \\ 1 & 2 \end{pmatrix}\). Calculer \(A^{-1}\).
Solution. On calcule \(\det(A) = 3 \times 2 – 5 \times 1 = 1 \neq 0\), donc \(A\) est inversible.
Par la formule directe :
\(A^{-1} = \displaystyle\frac{1}{1}\begin{pmatrix} 2 & -5 \\ -1 & 3 \end{pmatrix} = \begin{pmatrix} 2 & -5 \\ -1 & 3 \end{pmatrix}\)
Vérification : \(AA^{-1} = \begin{pmatrix} 3 & 5 \\ 1 & 2 \end{pmatrix}\begin{pmatrix} 2 & -5 \\ -1 & 3 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = I_2\) ✓
B. Exemple 2 — Inverse par Gauss-Jordan 3×3 (★★)
Exemple : Soit \(A = \begin{pmatrix} 1 & 2 & 1 \\ 2 & 5 & 3 \\ 1 & 3 & 3 \end{pmatrix}\). Calculer \(A^{-1}\) par la méthode de Gauss-Jordan.
Solution. On forme la matrice augmentée \((A \mid I_3)\) :
\(\left(\begin{array}{ccc|ccc} 1 & 2 & 1 & 1 & 0 & 0 \\ 2 & 5 & 3 & 0 & 1 & 0 \\ 1 & 3 & 3 & 0 & 0 & 1 \end{array}\right)\)
Phase descendante — \(L_2 \leftarrow L_2 – 2L_1\), \(L_3 \leftarrow L_3 – L_1\) :
\(\left(\begin{array}{ccc|ccc} 1 & 2 & 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & -2 & 1 & 0 \\ 0 & 1 & 2 & -1 & 0 & 1 \end{array}\right)\)
Puis \(L_3 \leftarrow L_3 – L_2\) :
\(\left(\begin{array}{ccc|ccc} 1 & 2 & 1 & 1 & 0 & 0 \\ 0 & 1 & 1 & -2 & 1 & 0 \\ 0 & 0 & 1 & 1 & -1 & 1 \end{array}\right)\)
Phase montante — \(L_2 \leftarrow L_2 – L_3\), \(L_1 \leftarrow L_1 – L_3\) :
\(\left(\begin{array}{ccc|ccc} 1 & 2 & 0 & 0 & 1 & -1 \\ 0 & 1 & 0 & -3 & 2 & -1 \\ 0 & 0 & 1 & 1 & -1 & 1 \end{array}\right)\)
Enfin \(L_1 \leftarrow L_1 – 2L_2\) :
\(\left(\begin{array}{ccc|ccc} 1 & 0 & 0 & 6 & -3 & 1 \\ 0 & 1 & 0 & -3 & 2 & -1 \\ 0 & 0 & 1 & 1 & -1 & 1 \end{array}\right)\)
On lit le résultat :
\(A^{-1} = \begin{pmatrix} 6 & -3 & 1 \\ -3 & 2 & -1 \\ 1 & -1 & 1 \end{pmatrix}\)
C. Exemple 3 — Inverse par la comatrice 3×3 (★★)
Exemple : Soit \(B = \begin{pmatrix} 2 & 1 & 0 \\ 1 & 1 & 1 \\ 1 & 0 & 2 \end{pmatrix}\). Calculer \(B^{-1}\) par la formule de la comatrice.
Étape 1 — Déterminant. En développant par la première ligne :
\(\det(B) = 2(1 \times 2 – 1 \times 0) – 1(1 \times 2 – 1 \times 1) + 0 = 4 – 1 = 3\)
Étape 2 — Cofacteurs. On calcule les 9 cofacteurs \(C_{ij} = (-1)^{i+j} M_{ij}\) :
\(C_{11} = +(2-0) = 2, \quad C_{12} = -(2-1) = -1, \quad C_{13} = +(0-1) = -1\)
\(C_{21} = -(2-0) = -2, \quad C_{22} = +(4-0) = 4, \quad C_{23} = -(0-1) = 1\)
\(C_{31} = +(1-0) = 1, \quad C_{32} = -(2-0) = -2, \quad C_{33} = +(2-1) = 1\)
Étape 3 — Transposer et diviser.
\(B^{-1} = \displaystyle\frac{1}{3}\,{}^t\!\mathrm{Com}(B) = \displaystyle\frac{1}{3}\begin{pmatrix} 2 & -2 & 1 \\ -1 & 4 & -2 \\ -1 & 1 & 1 \end{pmatrix}\)
D. Exemple 4 — Matrice avec paramètre (★★★)
Exemple : Soit \(a \in \mathbb{R}\) et \(A(a) = \begin{pmatrix} 1 & a & 0 \\ 0 & 1 & a \\ a & 0 & 1 \end{pmatrix}\). Déterminer pour quelles valeurs de \(a\) la matrice \(A(a)\) est inversible, et calculer \(A(a)^{-1}\).
Déterminant. En développant par la première ligne :
\(\det(A(a)) = 1(1-0) – a(0-a^2) + 0 = 1 + a^3\)
Or \(1 + a^3 = (1+a)(1-a+a^2)\). Sur \(\mathbb{R}\), le discriminant de \(1-a+a^2\) est \(\Delta = 1 – 4 = -3\) < \(0\), donc \(1 – a + a^2\) > \(0\) pour tout \(a \in \mathbb{R}\).
Conclusion : \(A(a)\) est inversible si et seulement si \(a \neq -1\).
Inverse par la comatrice. Après calcul des 9 cofacteurs et transposition :
\(A(a)^{-1} = \displaystyle\frac{1}{1+a^3}\begin{pmatrix} 1 & -a & a^2 \\ a^2 & 1 & -a \\ -a & a^2 & 1 \end{pmatrix}\)
Remarque : la matrice \({}^t\!\mathrm{Com}(A(a))\) est une matrice circulante — un résultat élégant, typique des problèmes de concours.
À toi de pratiquer maintenant. Les exercices suivants couvrent tous les aspects vus dans ce cours, avec une difficulté croissante.
V. Exercices corrigés
Exercice 1 (★) — Soit \(A = \begin{pmatrix} 4 & 7 \\ 1 & 2 \end{pmatrix}\). Calculer \(A^{-1}\).
Voir la correction
\(\det(A) = 4 \times 2 – 7 \times 1 = 1 \neq 0\), donc \(A\) est inversible.
Par la formule directe :
\(A^{-1} = \begin{pmatrix} 2 & -7 \\ -1 & 4 \end{pmatrix}\)Vérification : \(AA^{-1} = \begin{pmatrix} 8-7 & -28+28 \\ 2-2 & -7+8 \end{pmatrix} = I_2\) ✓
Exercice 2 (★) — Soient \(A = \begin{pmatrix} 1 & 2 \\ 3 & 7 \end{pmatrix}\) et \(B = \begin{pmatrix} 7 & -2 \\ -3 & 1 \end{pmatrix}\). Montrer que \(B = A^{-1}\).
Voir la correction
On calcule le produit \(AB\) :
\(AB = \begin{pmatrix} 1 \times 7 + 2 \times (-3) & 1 \times (-2) + 2 \times 1 \\ 3 \times 7 + 7 \times (-3) & 3 \times (-2) + 7 \times 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = I_2\)Puisque \(AB = I_2\) et que \(A, B \in \mathcal{M}_2(\mathbb{R})\) (dimension finie), on en déduit \(BA = I_2\) et donc \(B = A^{-1}\).
Exercice 3 (★) — Soit \(D = \begin{pmatrix} 2 & 0 & 0 \\ 0 & -3 & 0 \\ 0 & 0 & 5 \end{pmatrix}\). Calculer \(D^{-1}\) et énoncer la règle générale pour les matrices diagonales.
Voir la correction
Aucun coefficient diagonal n’est nul, donc \(D\) est inversible. L’inverse d’une matrice diagonale s’obtient en inversant chaque coefficient diagonal :
\(D^{-1} = \begin{pmatrix} \displaystyle\frac{1}{2} & 0 & 0 \\ 0 & -\displaystyle\frac{1}{3} & 0 \\ 0 & 0 & \displaystyle\frac{1}{5} \end{pmatrix}\)Règle générale : si \(D = \mathrm{diag}(\lambda_1, \ldots, \lambda_n)\) avec \(\lambda_i \neq 0\) pour tout \(i\), alors \(D^{-1} = \mathrm{diag}\!\left(\displaystyle\frac{1}{\lambda_1}, \ldots, \displaystyle\frac{1}{\lambda_n}\right)\).
Ce résultat est central en diagonalisation : si \(A = PDP^{-1}\), alors \(A^{-1} = PD^{-1}P^{-1}\).
Exercice 4 (★★) — Soit \(A = \begin{pmatrix} 1 & 1 & 0 \\ 0 & 1 & 1 \\ 1 & 0 & 1 \end{pmatrix}\). Calculer \(A^{-1}\) par la méthode de Gauss-Jordan.
Voir la correction
On forme \((A \mid I_3)\) et on applique les opérations élémentaires sur les lignes.
\(\left(\begin{array}{ccc|ccc} 1 & 1 & 0 & 1 & 0 & 0 \\ 0 & 1 & 1 & 0 & 1 & 0 \\ 1 & 0 & 1 & 0 & 0 & 1 \end{array}\right)\)\(L_3 \leftarrow L_3 – L_1\) :
\(\left(\begin{array}{ccc|ccc} 1 & 1 & 0 & 1 & 0 & 0 \\ 0 & 1 & 1 & 0 & 1 & 0 \\ 0 & -1 & 1 & -1 & 0 & 1 \end{array}\right)\)\(L_3 \leftarrow L_3 + L_2\) :
\(\left(\begin{array}{ccc|ccc} 1 & 1 & 0 & 1 & 0 & 0 \\ 0 & 1 & 1 & 0 & 1 & 0 \\ 0 & 0 & 2 & -1 & 1 & 1 \end{array}\right)\)\(L_3 \leftarrow \displaystyle\frac{1}{2}L_3\), puis remontée : \(L_2 \leftarrow L_2 – L_3\), \(L_1 \leftarrow L_1 – L_2\) :
\(\left(\begin{array}{ccc|ccc} 1 & 0 & 0 & \displaystyle\frac{1}{2} & -\displaystyle\frac{1}{2} & \displaystyle\frac{1}{2} \\ 0 & 1 & 0 & \displaystyle\frac{1}{2} & \displaystyle\frac{1}{2} & -\displaystyle\frac{1}{2} \\ 0 & 0 & 1 & -\displaystyle\frac{1}{2} & \displaystyle\frac{1}{2} & \displaystyle\frac{1}{2} \end{array}\right)\)Donc :
\(A^{-1} = \displaystyle\frac{1}{2}\begin{pmatrix} 1 & -1 & 1 \\ 1 & 1 & -1 \\ -1 & 1 & 1 \end{pmatrix}\)Remarque : \(\det(A) = 2\) (produit des pivots), ce qui confirme l’inversibilité.
Exercice 5 (★★) — Soit \(a \in \mathbb{R}\) et \(A(a) = \begin{pmatrix} 1 & a \\ a & 1 \end{pmatrix}\). Pour quelles valeurs de \(a\) la matrice \(A(a)\) est-elle inversible ? Calculer alors \(A(a)^{-1}\).
Voir la correction
\(\det(A(a)) = 1 – a^2 = (1-a)(1+a)\)\(A(a)\) est inversible si et seulement si \(a \neq 1\) et \(a \neq -1\).
Dans ce cas, par la formule \(2 \times 2\) :
\(A(a)^{-1} = \displaystyle\frac{1}{1-a^2}\begin{pmatrix} 1 & -a \\ -a & 1 \end{pmatrix}\)Vérification : \(A(a) \cdot A(a)^{-1} = \displaystyle\frac{1}{1-a^2}\begin{pmatrix} 1-a^2 & 0 \\ 0 & 1-a^2 \end{pmatrix} = I_2\) ✓
Observation : \(A(a)^{-1}\) a la même structure que \(A(a)\). En fait, \(A(a)^{-1} = A\!\left(\displaystyle\frac{-a}{1-a^2}\right)\)… mais ce n’est pas aussi simple. L’important est que la formule reste valide pour tout \(a \in \mathbb{R}\setminus\{-1,1\}\).
Exercice 6 (★★) — Résoudre le système \(AX = B\) où \(A = \begin{pmatrix} 2 & 1 \\ 5 & 3 \end{pmatrix}\) et \(B = \begin{pmatrix} 5 \\ 14 \end{pmatrix}\).
Voir la correction
\(\det(A) = 6 – 5 = 1 \neq 0\), donc \(A\) est inversible.
\(A^{-1} = \begin{pmatrix} 3 & -1 \\ -5 & 2 \end{pmatrix}\)Le système \(AX = B\) admet l’unique solution \(X = A^{-1}B\) :
\(X = \begin{pmatrix} 3 & -1 \\ -5 & 2 \end{pmatrix}\begin{pmatrix} 5 \\ 14 \end{pmatrix} = \begin{pmatrix} 15 – 14 \\ -25 + 28 \end{pmatrix} = \begin{pmatrix} 1 \\ 3 \end{pmatrix}\)Vérification : \(2(1) + 3 = 5\) ✓ et \(5(1) + 3(3) = 14\) ✓.
Conclusion : l’unique solution est \((x, y) = (1, 3)\).
Exercice 7 (★★★ — Type concours) — Soient \(A, B \in \mathcal{M}_n(\mathbb{K})\). On suppose que \(I_n + AB\) est inversible. Montrer que \(I_n + BA\) est inversible et exprimer \((I_n + BA)^{-1}\).
Voir la correction
Idée clé : deviner le candidat inverse, puis vérifier.
Posons \(C = I_n – B(I_n + AB)^{-1}A\). Montrons que \((I_n + BA)\,C = I_n\).
\((I_n + BA)\,C = (I_n + BA)\bigl[I_n – B(I_n + AB)^{-1}A\bigr]\) \(= I_n + BA – B(I_n + AB)^{-1}A – BAB(I_n + AB)^{-1}A\)Factorisons les deux derniers termes :
\(= I_n + BA – B\bigl[I_n + AB\bigr](I_n + AB)^{-1}A\) \(= I_n + BA – BA = I_n\)Donc \(C\) est un inverse à droite de \(I_n + BA\). En dimension finie, c’est aussi un inverse à gauche. On obtient :
\(\fbox{(I_n + BA)^{-1} = I_n – B(I_n + AB)^{-1}A}\)Remarque (ce que le correcteur attend) : cette identité est un cas particulier de la formule de Woodbury. La factorisation \(B[I_n + AB] = B + BAB\) est le passage clé — il faut la voir pour que la preuve se simplifie.
Exercice 8 (★★★ — Type concours) — Soit \(A \in \mathcal{M}_n(\mathbb{K})\) vérifiant \(A^2 – 3A + 2I_n = 0\). Montrer que \(A\) est inversible et exprimer \(A^{-1}\) comme polynôme en \(A\).
Voir la correction
On réécrit la relation \(A^2 – 3A + 2I_n = 0\) en factorisant \(A\) :
\(A(A – 3I_n) = -2I_n\)Soit :
\(A \cdot \left(-\displaystyle\frac{1}{2}\right)(A – 3I_n) = I_n\)On a exhibé un inverse à droite de \(A\) en dimension finie, donc :
\(A^{-1} = -\displaystyle\frac{1}{2}(A – 3I_n) = \displaystyle\frac{1}{2}(3I_n – A)\)Méthode générale : si \(P(A) = 0\) avec \(P(0) \neq 0\), alors \(A\) est inversible. Ici \(P(X) = X^2 – 3X + 2 = (X-1)(X-2)\) et \(P(0) = 2 \neq 0\).
On écrit \(P(X) = XQ(X) + P(0)\) avec \(Q(X) = X – 3\) :
\(A\,Q(A) = -P(0)\,I_n \Rightarrow A^{-1} = -\displaystyle\frac{1}{P(0)}\,Q(A)\)Cette technique est systématique dès qu’un polynôme annulateur est connu.
VI. Erreurs fréquentes et pièges classiques
Voici les erreurs que les correcteurs de concours voient le plus souvent sur les copies. Chacune a coûté des points à des centaines de candidats.
Piège 1 — Inverser l’ordre du produit
❌ Copie fautive : « \((AB)^{-1} = A^{-1}B^{-1}\) »
Diagnostic : le produit matriciel n’est pas commutatif. L’inverse d’un produit inverse l’ordre.
✅ Correction : \((AB)^{-1} = B^{-1}A^{-1}\). Pense à l’analogie : pour enlever tes chaussures et tes chaussettes, tu enlèves d’abord les chaussures (la dernière chose mise).
Piège 2 — Oublier de vérifier l’inversibilité
❌ Copie fautive : « On calcule \(A^{-1} = \displaystyle\frac{1}{ad-bc}\begin{pmatrix} d & -b \\ -c & a \end{pmatrix}\). » (sans vérifier \(ad – bc \neq 0\))
Diagnostic : si \(\det(A) = 0\), l’inverse n’existe pas. Appliquer la formule aveuglément mène à une division par zéro.
✅ Correction : toujours commencer par « \(\det(A) = \ldots \neq 0\), donc \(A\) est inversible. »
Piège 3 — « Diviser » par une matrice
❌ Copie fautive : « De \(AX = B\), on déduit \(X = \displaystyle\frac{B}{A}\). »
Diagnostic : la division matricielle n’existe pas. La notation \(\displaystyle\frac{B}{A}\) n’a aucun sens. De plus, \(A^{-1}B \neq BA^{-1}\) en général.
✅ Correction : « \(A\) est inversible, donc \(X = A^{-1}B\) » (multiplication à gauche).
Piège 4 — Confondre inverse et transposée
❌ Copie fautive : « \(A^{-1} = {}^tA\) »
Diagnostic : cette égalité n’est vraie que pour les matrices orthogonales (\({}^tA \cdot A = I_n\)). En général, \(A^{-1}\) et \({}^tA\) sont des matrices totalement différentes.
✅ Correction : la transposée échange lignes et colonnes ; l’inverse est la matrice qui annule le produit. Seule propriété commune : \(({}^tA)^{-1} = {}^t(A^{-1})\).
Piège 5 — Opérations sur les colonnes en Gauss-Jordan
❌ Copie fautive : « \(C_2 \leftarrow C_2 – 3C_1\) » (opération sur les colonnes dans la matrice augmentée)
Diagnostic : une opération sur les colonnes de \((A \mid I_n)\) revient à multiplier à droite, ce qui modifie à la fois \(A\) et \(I_n\) de manière incohérente. Le résultat obtenu n’est pas \(A^{-1}\).
✅ Correction : dans l’algorithme de Gauss-Jordan, n’utiliser que des opérations sur les lignes.
VII. Questions fréquentes
Comment calculer l'inverse d'une matrice ?
Trois méthodes selon la taille. Pour \(n = 2\), la formule directe : \(A^{-1} = \displaystyle\frac{1}{ad-bc}\begin{pmatrix} d & -b \\ -c & a \end{pmatrix}\). Pour \(n = 3\), Gauss-Jordan (efficace) ou comatrice (si paramètres). Pour \(n \geq 4\), Gauss-Jordan exclusivement. Dans tous les cas, vérifier d’abord que \(\det(A) \neq 0\).
Quelle est la différence entre matrice inverse et matrice inversible ?
Une matrice est dite inversible si elle possède un inverse — c’est une propriété (vrai ou faux). La matrice inverse \(A^{-1}\) est l’objet lui-même, la matrice telle que \(AA^{-1} = I_n\). Dire « \(A\) est inversible » est une condition ; écrire « \(A^{-1}\) » suppose que cette condition est vérifiée. Pour les critères d’inversibilité, voir la page dédiée.
Comment vérifier que B est l'inverse de A ?
Il suffit de calculer le produit \(AB\) (ou \(BA\)) et de vérifier qu’il vaut \(I_n\). En dimension finie, une seule des deux vérifications suffit : si \(AB = I_n\), alors automatiquement \(BA = I_n\). En pratique, on calcule \(AB\) car c’est souvent plus simple à organiser.
Pourquoi l'inverse d'un produit AB s'écrit B⁻¹A⁻¹ et pas A⁻¹B⁻¹ ?
Parce que le produit matriciel n’est pas commutatif. Pour « défaire » l’action de \(A\) puis \(B\), il faut d’abord annuler \(B\) (la dernière opération appliquée) puis \(A\). Formellement : \((AB)(B^{-1}A^{-1}) = A(BB^{-1})A^{-1} = AI_nA^{-1} = I_n\). Si l’on écrivait \(A^{-1}B^{-1}\), le produit \((AB)(A^{-1}B^{-1}) = A(BA^{-1})B^{-1}\) ne se simplifie pas (car \(BA^{-1} \neq I_n\) en général).
Quelle méthode d'inversion choisir en concours ?
Pour un calcul explicite, Gauss-Jordan est systématique, sûr et rapide. Réserve la comatrice à deux situations : les matrices avec un paramètre (elle donne une formule littérale de \(A^{-1}\) en fonction du paramètre) et les preuves théoriques d’inversibilité. En QCM ou à l’oral, la formule \(2 \times 2\) est immédiate. Consulte le tableau comparatif dans la section III.
Une matrice non carrée peut-elle être inversible ?
Non, au sens strict de la définition (existence de \(B\) telle que \(AB = BA = I\)). Cependant, une matrice rectangulaire \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) de rang maximal peut admettre un inverse à gauche (si \(\mathrm{rg}(A) = p \leq n\)) ou un inverse à droite (si \(\mathrm{rg}(A) = n \leq p\)), mais jamais les deux à la fois quand \(n \neq p\). En CPGE, sauf mention contraire, « inversible » signifie « carrée et inversible ».
VIII. Pour aller plus loin
Tu maîtrises maintenant la théorie de l’inverse d’une matrice : définition, propriétés, trois méthodes de calcul et leurs conditions d’utilisation. Pour approfondir :
- Inverse d’une matrice 2×2 : formule et exemples — page dédiée avec de nombreux cas particuliers
- Inverse d’une matrice 3×3 : méthode pas à pas — Gauss-Jordan et comatrice en détail, tableau comparatif
- Matrice inversible : définition, critères et déterminant — tous les critères d’inversibilité (rang, noyau, déterminant, colonnes libres)
- Déterminant d’une matrice : calcul, propriétés et applications — le lien \(\det(A) \neq 0 \Leftrightarrow A \in GL_n(\mathbb{K})\) en profondeur
- Matrice adjointe : définition et applications — théorie complète de la comatrice et formule \(A^{-1} = \displaystyle\frac{1}{\det A}\,{}^t\!\mathrm{Com}(A)\)
- Diagonalisation d’une matrice — la matrice de passage \(P \in GL_n(\mathbb{K})\) et le calcul de \(A^n\) via \(A^{-1}\)
- Exercices corrigés sur les matrices — 30+ exercices transversaux, dont des sujets type concours X/Mines/Centrale