Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec le niveau d’exigence attendu en classe préparatoire. Découvrir le professeur

L’inversibilité est la question centrale de l’algèbre matricielle : une matrice carrée peut-elle être « inversée » pour retrouver l’information qu’elle encode ? Ce concept unifie déterminant, rang, noyau et systèmes linéaires en un unique théorème d’équivalence. Tu trouveras ici la définition formelle, les critères d’inversibilité avec leurs démonstrations, les propriétés algébriques fondamentales et des exercices corrigés progressifs.

I. Définition et premières propriétés

A. Définition formelle

On fixe \(\mathbb{K}\) un corps (\(\mathbb{R}\) ou \(\mathbb{C}\)) et \(n \in \mathbb{N}^*\).

Définition — Matrice inversible

Une matrice \(A \in \mathcal{M}_n(\mathbb{K})\) est dite inversible (ou régulière) s’il existe une matrice \(B \in \mathcal{M}_n(\mathbb{K})\) telle que :

\(AB = BA = I_n\)

La matrice \(B\) est alors appelée inverse de \(A\) et notée \(A^{-1}\).

Trois points fondamentaux méritent d’être soulignés dès maintenant :

  • Seules les matrices carrées peuvent être inversibles. La notion n’a aucun sens pour une matrice rectangulaire \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) avec \(n \neq p\).
  • La condition porte a priori sur deux égalités : \(AB = I_n\) et \(BA = I_n\). Mais en dimension finie, une seule suffit (voir la proposition ci-dessous).
  • L’ensemble des matrices inversibles de \(\mathcal{M}_n(\mathbb{K})\) est noté \(\mathrm{GL}_n(\mathbb{K})\) — c’est le groupe linéaire.

Proposition fondamentale — Une seule vérification suffit

Soit \(A, B \in \mathcal{M}_n(\mathbb{K})\). Si \(AB = I_n\), alors \(BA = I_n\).

Autrement dit, pour montrer qu’une matrice est inversible, il suffit de trouver un inverse à droite (ou à gauche) — l’autre côté en découle automatiquement.

Démonstration ⋆

Supposons \(AB = I_n\). Alors \(\det(A)\det(B) = \det(I_n) = 1\), donc \(\det(A) \neq 0\) et \(\det(B) \neq 0\). En particulier, \(A\) est inversible (par le critère du déterminant) et possède un inverse \(A^{-1}\).

On a alors : \(B = I_n \cdot B = (A^{-1}A)B = A^{-1}(AB) = A^{-1}I_n = A^{-1}\).

Donc \(B = A^{-1}\), ce qui donne \(BA = A^{-1}A = I_n\). ∎

Attention — Résultat spécifique à la dimension finie

En dimension infinie (opérateurs sur des espaces de Banach, par exemple), l’implication \(AB = I \Rightarrow BA = I\) est fausse. En CPGE, tu travailles toujours en dimension finie : la simplification s’applique systématiquement.

B. Unicité de l’inverse

Propriété — Unicité de l’inverse

Si \(A \in \mathcal{M}_n(\mathbb{K})\) est inversible, son inverse est unique.

Démonstration ⋆

Supposons que \(B\) et \(C\) sont deux inverses de \(A\), c’est-à-dire \(AB = BA = I_n\) et \(AC = CA = I_n\). Alors :

\(B = B \cdot I_n = B(AC) = (BA)C = I_n \cdot C = C\)

Donc \(B = C\). La notation \(A^{-1}\) est bien définie. ∎

Cette propriété est essentielle : elle garantit que la notation \(A^{-1}\) n’est pas ambiguë. La démonstration est un classique de début de cours — elle repose uniquement sur l’associativité du produit matriciel.

C. Exemples et contre-exemples fondamentaux

Exemples de matrices inversibles

1. La matrice identité. \(I_n\) est inversible, d’inverse \(I_n^{-1} = I_n\).

2. Les matrices diagonales à coefficients non nuls. Si \(D = \mathrm{diag}(d_1, \ldots, d_n)\) avec \(\forall\, i,\; d_i \neq 0\), alors \(D\) est inversible d’inverse \(D^{-1} = \mathrm{diag}\!\left(\displaystyle\frac{1}{d_1}, \ldots, \displaystyle\frac{1}{d_n}\right)\).

3. Les matrices de rotation. La matrice \(R_\theta = \begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix}\) est inversible pour tout \(\theta \in \mathbb{R}\), d’inverse \(R_\theta^{-1} = R_{-\theta}\).

4. Les matrices élémentaires. Les matrices obtenues par une opération élémentaire sur \(I_n\) (permutation de lignes, dilatation \(L_i \leftarrow \lambda L_i\) avec \(\lambda \neq 0\), transvection \(L_i \leftarrow L_i + \lambda L_j\)) sont toutes inversibles.

Contre-exemples — matrices non inversibles

1. La matrice nulle. \(0_n \in \mathcal{M}_n(\mathbb{K})\) n’est pas inversible (pour tout \(B\), \(0_n \cdot B = 0_n \neq I_n\)).

2. Matrice avec une ligne nulle. Si \(A\) possède une ligne (ou une colonne) nulle, alors \(\det(A) = 0\) et \(A\) n’est pas inversible.

3. Matrice de projection non triviale. Si \(P^2 = P\) avec \(P \neq I_n\) et \(P \neq 0_n\), alors \(P\) n’est pas inversible (car \(\det(P)^2 = \det(P)\) donne \(\det(P) \in \{0, 1\}\), et \(\det(P) = 1\) impliquerait \(P = I_n\) par un argument de rang).

Piège classique — matrice non carrée

On ne demande jamais si une matrice \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) avec \(n \neq p\) est « inversible ». La notion n’existe pas pour les matrices rectangulaires. Si un exercice te demande « la matrice \(A \in \mathcal{M}_{2,3}(\mathbb{R})\) est-elle inversible ? », la réponse est : non, par définition — une matrice 2×3 ne peut pas être inversible.


II. Le théorème d’inversibilité — critères équivalents

Voici le théorème le plus important du cours : il rassemble en une seule proposition toutes les caractérisations de l’inversibilité. Connaître cette liste par cœur, c’est disposer d’un arsenal complet pour aborder tout exercice d’algèbre linéaire.

A. Énoncé du théorème

Théorème — Caractérisation des matrices inversibles

Soit \(A \in \mathcal{M}_n(\mathbb{K})\). Les propositions suivantes sont équivalentes :

  1. \(A\) est inversible.
  2. \(\det(A) \neq 0\).
  3. \(\mathrm{rg}(A) = n\).
  4. \(\ker(A) = \{0_{\mathbb{K}^n}\}\) (l’application \(X \mapsto AX\) est injective).
  5. \(\mathrm{Im}(A) = \mathbb{K}^n\) (l’application \(X \mapsto AX\) est surjective).
  6. Les colonnes de \(A\) forment une famille libre de \(\mathbb{K}^n\).
  7. Les colonnes de \(A\) forment une base de \(\mathbb{K}^n\).
  8. Les lignes de \(A\) forment une famille libre de \(\mathbb{K}^n\).
  9. \(\forall\, B \in \mathcal{M}_{n,1}(\mathbb{K}),\;\) le système \(AX = B\) admet une unique solution.
  10. \(0\) n’est pas valeur propre de \(A\).

La puissance de ce théorème tient dans le mot « équivalentes » : savoir que l’une de ces propositions est vraie, c’est savoir que toutes le sont. En pratique, tu choisis le critère le plus commode selon la situation (voir la section IV.D).

Diagramme en etoile des criteres d inversibilite d une matrice carree avec 8 criteres equivalents

B. Démonstrations des implications clés ⋆

On ne démontre pas les dix équivalences de manière circulaire — on établit les implications les plus significatives. Le schéma est :

\((1) \Rightarrow (2) \Rightarrow (1)\) (via le déterminant), \((1) \Leftrightarrow (4) \Leftrightarrow (5)\) (via la théorie des applications linéaires), et \((4) \Leftrightarrow (6) \Leftrightarrow (7)\) (via les familles libres/génératrices).

Implication \((1) \Rightarrow (2)\) — inversible ⟹ déterminant non nul

Démonstration ⋆

Si \(A\) est inversible, alors \(AA^{-1} = I_n\). Par multiplicativité du déterminant :

\(\det(A) \cdot \det(A^{-1}) = \det(I_n) = 1\)

Donc \(\det(A) \neq 0\) (et \(\det(A^{-1}) = \displaystyle\frac{1}{\det(A)}\)). ∎

Implication \((2) \Rightarrow (1)\) — déterminant non nul ⟹ inversible

Démonstration ⋆

Si \(\det(A) \neq 0\), on pose \(B = \displaystyle\frac{1}{\det(A)} \, {}^t\!\mathrm{Com}(A)\), où \(\mathrm{Com}(A)\) est la comatrice de \(A\). La formule de la comatrice donne :

\(AB = A \cdot \displaystyle\frac{1}{\det(A)} \, {}^t\!\mathrm{Com}(A) = \displaystyle\frac{1}{\det(A)} \cdot \det(A) \cdot I_n = I_n\)

Donc \(A\) est inversible d’inverse \(A^{-1} = \displaystyle\frac{1}{\det(A)} \, {}^t\!\mathrm{Com}(A)\). ∎

Implication \((1) \Rightarrow (4)\) — inversible ⟹ noyau trivial

Démonstration ⋆

Soit \(X \in \ker(A)\), c’est-à-dire \(AX = 0\). En multipliant à gauche par \(A^{-1}\) :

\(X = I_n X = (A^{-1}A)X = A^{-1}(AX) = A^{-1} \cdot 0 = 0\)

Donc \(\ker(A) = \{0\}\). ∎

Implication \((4) \Rightarrow (1)\) — noyau trivial ⟹ inversible

Démonstration ⋆

L’application linéaire \(f_A : \mathbb{K}^n \to \mathbb{K}^n\) définie par \(f_A(X) = AX\) a pour noyau \(\ker(A)\). Si \(\ker(A) = \{0\}\), alors \(f_A\) est injective.

Or, un endomorphisme d’un espace vectoriel de dimension finie est injectif si et seulement s’il est bijectif (théorème du rang : \(\dim(\ker f_A) + \dim(\mathrm{Im}\, f_A) = n\), donc \(\dim(\mathrm{Im}\, f_A) = n = \dim(\mathbb{K}^n)\)).

Donc \(f_A\) est bijective, ce qui signifie que \(A\) est inversible. ∎

Équivalence \((4) \Leftrightarrow (6)\) — noyau trivial ⟺ colonnes libres

Démonstration ⋆

Notons \(C_1, \ldots, C_n\) les colonnes de \(A\). Dire que \(X = \begin{pmatrix} x_1 \\ \vdots \\ x_n \end{pmatrix} \in \ker(A)\) signifie \(AX = x_1 C_1 + \cdots + x_n C_n = 0\).

Donc \(\ker(A) = \{0\}\) si et seulement si la seule combinaison linéaire nulle des colonnes est la combinaison triviale, c’est-à-dire si et seulement si \((C_1, \ldots, C_n)\) est une famille libre. ∎

Équivalence \((6) \Leftrightarrow (7)\) — colonnes libres ⟺ colonnes = base

Démonstration ⋆

Les colonnes de \(A\) sont \(n\) vecteurs de \(\mathbb{K}^n\). Or, \(\dim(\mathbb{K}^n) = n\). Donc :

  • \(n\) vecteurs libres dans un espace de dimension \(n\) forment une base.
  • Réciproquement, toute base est une famille libre.

D’où l’équivalence. ∎

Équivalence \((2) \Leftrightarrow (10)\) — déterminant ⟺ valeur propre

Démonstration ⋆

\(0\) est valeur propre de \(A\) si et seulement si \(\det(A – 0 \cdot I_n) = 0\), c’est-à-dire \(\det(A) = 0\). Donc \(0\) n’est pas valeur propre si et seulement si \(\det(A) \neq 0\). ∎

Pour retenir les 10 critères

Regroupe-les en trois familles :

  • Famille « déterminant » : \(\det(A) \neq 0\), et \(0 \notin \mathrm{Sp}(A)\).
  • Famille « rang/noyau/image » : \(\mathrm{rg}(A) = n\), \(\ker(A) = \{0\}\), \(\mathrm{Im}(A) = \mathbb{K}^n\).
  • Famille « colonnes/lignes » : colonnes libres, colonnes = base, lignes libres, système \(AX = B\) toujours de solution unique.

Chaque famille traduit le même phénomène (bijectivité) dans un langage différent.

🎁 EN BONUS

Les 10 critères d’inversibilité en une fiche

Théorème de caractérisation, propriétés algébriques et arbre décisionnel — tout le cours condensé sur une fiche recto-verso prête à réviser.

📄 Télécharger la fiche PDF

Idéal pour tes révisions de DS et de concours — tu gagnes 30 minutes de prise de notes.


III. Propriétés algébriques des matrices inversibles

Maintenant que tu sais reconnaître une matrice inversible, voyons comment se comportent les opérations algébriques vis-à-vis de l’inversibilité.

A. Formules fondamentales

Propriétés — Calcul avec l’inverse

Soient \(A, B \in \mathrm{GL}_n(\mathbb{K})\) et \(\lambda \in \mathbb{K}^*\). Alors :

  1. \((A^{-1})^{-1} = A\)
  2. \((AB)^{-1} = B^{-1}A^{-1}\) (attention à l’ordre !)
  3. \(({}^tA)^{-1} = {}^t(A^{-1})\)
  4. \((\lambda A)^{-1} = \displaystyle\frac{1}{\lambda}\,A^{-1}\)
  5. \(\forall\, k \in \mathbb{Z},\quad (A^k)^{-1} = (A^{-1})^k\) (notation : \(A^{-k} = (A^{-1})^k\))
  6. \(\det(A^{-1}) = \displaystyle\frac{1}{\det(A)}\)
Démonstration de (2) ⋆ — Inverse d’un produit

On vérifie que \(B^{-1}A^{-1}\) est l’inverse de \(AB\) :

\((AB)(B^{-1}A^{-1}) = A(BB^{-1})A^{-1} = AI_nA^{-1} = AA^{-1} = I_n\)

Donc \((AB)^{-1} = B^{-1}A^{-1}\). ∎

Démonstration de (3) ⋆ — Inverse de la transposée

On part de \(AA^{-1} = I_n\) et on transpose les deux membres :

\({}^t(AA^{-1}) = {}^tI_n = I_n\)

Or \({}^t(AA^{-1}) = {}^t(A^{-1}) \cdot {}^tA\) (la transposée d’un produit inverse l’ordre). Donc :

\({}^t(A^{-1}) \cdot {}^tA = I_n\)

Ce qui signifie que \({}^t(A^{-1})\) est l’inverse de \({}^tA\), d’où \(({}^tA)^{-1} = {}^t(A^{-1})\). ∎

Erreur fatale — L’ordre dans \((AB)^{-1}\)

\((AB)^{-1} = B^{-1}A^{-1}\) et non \(A^{-1}B^{-1}\). Le produit matriciel n’est pas commutatif : l’ordre s’inverse. C’est analogue à l’enfilage de vêtements : pour défaire « chaussettes puis chaussures », on retire d’abord les chaussures puis les chaussettes.

On généralise immédiatement au produit de \(k\) matrices :

\((A_1 A_2 \cdots A_k)^{-1} = A_k^{-1} \cdots A_2^{-1} A_1^{-1}\)

B. Le groupe linéaire \(\mathrm{GL}_n(\mathbb{K})\)

Définition — Groupe linéaire

On note \(\mathrm{GL}_n(\mathbb{K}) = \{A \in \mathcal{M}_n(\mathbb{K}) \mid A \text{ inversible}\}\) l’ensemble des matrices inversibles de taille \(n\).

Le couple \((\mathrm{GL}_n(\mathbb{K}), \times)\) est un groupe (non commutatif pour \(n \geq 2\)).

Vérifions les quatre axiomes de groupe :

Axiomes de groupe pour GL_n(K)
Axiome Vérification
Stabilité Si \(A, B \in \mathrm{GL}_n(\mathbb{K})\), alors \(AB \in \mathrm{GL}_n(\mathbb{K})\) car \(\det(AB) = \det(A)\det(B) \neq 0\).
Associativité Héritée de \((\mathcal{M}_n(\mathbb{K}), \times)\) : le produit matriciel est toujours associatif.
Élément neutre \(I_n \in \mathrm{GL}_n(\mathbb{K})\) et \(\forall\, A,\; AI_n = I_nA = A\).
Inverse \(\forall\, A \in \mathrm{GL}_n(\mathbb{K}),\; A^{-1} \in \mathrm{GL}_n(\mathbb{K})\) (car \(\det(A^{-1}) = \displaystyle\frac{1}{\det(A)} \neq 0\)).

Remarque — \(\mathrm{GL}_n(\mathbb{K})\) n’est pas un sous-groupe de \((\mathcal{M}_n(\mathbb{K}), +)\)

La somme de deux matrices inversibles n’est pas nécessairement inversible. Par exemple : \(I_2 + (-I_2) = 0_2\), qui n’est pas inversible. L’inversibilité est une propriété multiplicative, pas additive.

C. Inversibilité et applications linéaires bijectives

Le lien entre matrices inversibles et applications linéaires est fondamental.

Propriété — Matrice d’un isomorphisme

Soit \(\mathcal{B}\) une base de \(\mathbb{K}^n\) et \(f \in \mathcal{L}(\mathbb{K}^n)\) un endomorphisme de matrice \(A = \mathrm{Mat}_{\mathcal{B}}(f)\). Alors :

\(A \text{ inversible} \iff f \text{ bijective (automorphisme)}\)

Et dans ce cas, \(A^{-1} = \mathrm{Mat}_{\mathcal{B}}(f^{-1})\).

Ce résultat permet de traduire les problèmes d’inversibilité matricielle en problèmes d’injectivité/surjectivité d’applications linéaires, et réciproquement. En pratique :

  • Montrer qu’un endomorphisme est bijectif ⟹ sa matrice est inversible.
  • Les matrices de changement de base sont toujours inversibles (car un changement de base est un isomorphisme).
  • La diagonalisation \(A = PDP^{-1}\) repose sur l’inversibilité de la matrice de passage \(P\).
Logo-excellence-maths
Tu veux maîtriser l'algèbre linéaire sans zone d'ombre ?
Avec un professeur diplômé de Polytechnique, progresse rapidement sur les matrices, le déterminant, la diagonalisation et tous les chapitres clés de la prépa. Résultats visibles dès le premier mois.

IV. Méthodes pour démontrer l’inversibilité en pratique

Le théorème de la section II te donne dix critères. Mais face à un exercice concret, lequel choisir ? Cette section te donne la réponse.

A. Par le déterminant

Quand l’utiliser : matrice numérique de petite taille (\(n \leq 4\)), ou matrice avec paramètre dont on veut discuter l’inversibilité.

Méthode :

  1. Calculer \(\det(A)\) (par Sarrus, développement par cofacteurs, ou opérations sur les lignes).
  2. Conclure : \(\det(A) \neq 0 \Leftrightarrow A\) inversible.

Exemple — Matrice 2×2

Soit \(A = \begin{pmatrix} 3 & 7 \\ 2 & 5 \end{pmatrix}\). On calcule \(\det(A) = 3 \times 5 – 7 \times 2 = 15 – 14 = 1 \neq 0\). Donc \(A\) est inversible.

Pour le calcul effectif de \(A^{-1}\), on utilise la formule d’inversion 2×2 ou la méthode de Gauss — ce n’est pas l’objet de cette page.

B. Par le noyau

Quand l’utiliser : grande matrice, matrice définie abstraitement, contexte d’application linéaire.

Méthode :

  1. Poser \(AX = 0\).
  2. Montrer que nécessairement \(X = 0\).
  3. Conclure : \(\ker(A) = \{0\} \Rightarrow A\) inversible.

Exemple — Matrice antisymétrique

Soit \(A \in \mathcal{M}_n(\mathbb{R})\) une matrice antisymétrique (\({}^tA = -A\)). Montrons que \(I_n + A\) est inversible.

Soit \(X \in \ker(I_n + A)\), c’est-à-dire \((I_n + A)X = 0\), soit \(X = -AX\). Alors :

\({}^tX \cdot X = {}^tX \cdot (-AX) = -{}^tX \cdot AX\)

Or \({}^t({}^tX \cdot AX) = {}^tX \cdot {}^tA \cdot X = {}^tX \cdot (-A) \cdot X = -{}^tX \cdot AX\), donc \({}^tX \cdot AX = -{}^tX \cdot AX\), d’où \({}^tX \cdot AX = 0\).

Ainsi \({}^tX \cdot X = 0\), ce qui signifie \(\|X\|^2 = 0\), donc \(X = 0\). Le noyau est trivial : \(I_n + A\) est inversible.

C. Par une relation polynomiale

C’est la technique la plus élégante — et la plus fréquente en concours.

Quand l’utiliser : l’énoncé donne (ou tu démontres) une relation algébrique du type \(P(A) = 0\) avec \(P(0) \neq 0\).

Méthode — Inversibilité par relation polynomiale

Si \(A \in \mathcal{M}_n(\mathbb{K})\) vérifie \(P(A) = 0\) pour un polynôme \(P \in \mathbb{K}[X]\) avec \(P(0) \neq 0\), alors \(A\) est inversible.

Preuve : on écrit \(P(X) = P(0) + X \cdot Q(X)\) (factorisation par \(X\) du reste). Alors \(P(A) = P(0) \cdot I_n + A \cdot Q(A) = 0\), d’où :

\(A \cdot \left(-\displaystyle\frac{1}{P(0)}\,Q(A)\right) = I_n\)

Donc \(A^{-1} = -\displaystyle\frac{1}{P(0)}\,Q(A)\).

Exemple classique

Soit \(A \in \mathcal{M}_n(\mathbb{K})\) telle que \(A^2 – 5A + 6I_n = 0\).

Ici \(P(X) = X^2 – 5X + 6\) et \(P(0) = 6 \neq 0\). On factorise :

\(A^2 – 5A + 6I_n = 0 \iff A(A – 5I_n) = -6I_n \iff A \cdot \left(-\displaystyle\frac{1}{6}(A – 5I_n)\right) = I_n\)

Donc \(A\) est inversible et \(A^{-1} = \displaystyle\frac{1}{6}(5I_n – A)\).

Application au théorème de Cayley-Hamilton (hors programme MPSI, utile en MP)

Toute matrice \(A \in \mathcal{M}_n(\mathbb{K})\) annule son polynôme caractéristique \(\chi_A\). Si \(\chi_A(0) = \det(-A) = (-1)^n \det(A) \neq 0\), la méthode polynomiale s’applique directement — on retrouve le critère (2).

D. Quelle méthode choisir ?

Voici un arbre de décision qui couvre la quasi-totalité des situations rencontrées en DS et en concours :

Arbre décisionnel — quel critère d'inversibilité utiliser ?
Situation Méthode recommandée Critère utilisé
Matrice numérique, taille \(n \leq 3\) Calculer \(\det(A)\) \(\det(A) \neq 0\)
Matrice avec paramètre (discussion) Calculer \(\det(A)\), résoudre \(\det(A) = 0\) \(\det(A) \neq 0\)
Relation algébrique \(P(A) = 0\) Vérifier \(P(0) \neq 0\), factoriser Relation polynomiale
Matrice d’une application linéaire \(f\) Montrer \(f\) injective (ou surjective) \(\ker(A) = \{0\}\)
Grande matrice, structure particulière Résoudre \(AX = 0\) \(\ker(A) = \{0\}\)
Matrice triangulaire ou diagonale Vérifier que les coefficients diagonaux sont non nuls \(\det = \) produit des diagonaux
On connaît le rang Vérifier \(\mathrm{rg}(A) = n\) \(\mathrm{rg}(A) = n\)
On peut exhiber \(B\) tel que \(AB = I_n\) Construction directe Définition

Piège — Ne jamais essayer de calculer \(A^{-1}\) pour montrer l’inversibilité

Si l’exercice demande « montrer que \(A\) est inversible », il faut prouver l’inversibilité d’abord (par l’un des 10 critères), puis éventuellement calculer \(A^{-1}\) ensuite. Commencer par calculer \(A^{-1}\) est un raisonnement circulaire : tu utilises l’existence de ce que tu dois démontrer.


V. Exercices corrigés

Voici 7 exercices classés par difficulté croissante. Les exercices marqués I sont des incontournables : ils tombent très régulièrement en DS et en concours.

Exercice 1 (★) — Inversibilité par le déterminant

Déterminer si les matrices suivantes sont inversibles :

\(A = \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}, \quad B = \begin{pmatrix} 1 & 2 \\ 2 & 4 \end{pmatrix}, \quad C = \begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix}\)
Voir la correction

Pour \(A\) : \(\det(A) = 1 \times 4 – 2 \times 3 = -2 \neq 0\). Donc \(A\) est inversible.

Pour \(B\) : \(\det(B) = 1 \times 4 – 2 \times 2 = 0\). Donc \(B\) n’est pas inversible. On remarque d’ailleurs que la deuxième ligne est le double de la première.

Pour \(C\) : \(\det(C) = \cos^2\theta + \sin^2\theta = 1 \neq 0\). Donc \(C\) est inversible pour tout \(\theta \in \mathbb{R}\). Son inverse est \(C^{-1} = \begin{pmatrix} \cos\theta & \sin\theta \\ -\sin\theta & \cos\theta \end{pmatrix} = {}^tC\), ce qui signifie que \(C\) est une matrice orthogonale.


Exercice 2 (★★) — Déterminant 3×3

Soit \(A = \begin{pmatrix} 1 & 2 & 3 \\ 0 & 1 & 4 \\ 5 & 6 & 0 \end{pmatrix}\). Montrer que \(A\) est inversible.

Voir la correction

On calcule \(\det(A)\) en développant par rapport à la première colonne (qui contient un zéro) :

\(\det(A) = 1 \cdot \begin{vmatrix} 1 & 4 \\ 6 & 0 \end{vmatrix} – 0 \cdot \begin{vmatrix} 2 & 3 \\ 6 & 0 \end{vmatrix} + 5 \cdot \begin{vmatrix} 2 & 3 \\ 1 & 4 \end{vmatrix}\) \(= 1 \cdot (0 – 24) + 5 \cdot (8 – 3) = -24 + 25 = 1\)

Comme \(\det(A) = 1 \neq 0\), la matrice \(A\) est inversible.

Remarque : \(\det(A) = 1\) signifie que \(A \in \mathrm{SL}_3(\mathbb{R})\) (le groupe spécial linéaire).


Exercice 3 (★★ I) — Relation polynomiale

Soit \(A \in \mathcal{M}_n(\mathbb{K})\) telle que \(A^2 – 5A + 6I_n = 0\).

  1. Montrer que \(A\) est inversible.
  2. Exprimer \(A^{-1}\) en fonction de \(A\) et \(I_n\).
Voir la correction

1. On a \(A^2 – 5A + 6I_n = 0\), soit \(P(A) = 0\) avec \(P(X) = X^2 – 5X + 6\). Comme \(P(0) = 6 \neq 0\), on en déduit que \(A\) est inversible.

Justification rigoureuse : on réécrit la relation :

\(A^2 – 5A + 6I_n = 0 \iff A(A – 5I_n) = -6I_n \iff A \cdot \left(-\displaystyle\frac{1}{6}(A – 5I_n)\right) = I_n\)

On a exhibé un inverse à droite de \(A\), donc \(A\) est inversible.

2. De la relation ci-dessus :

\(\fbox{A^{-1} = \displaystyle\frac{1}{6}(5I_n – A)}\)

Vérification : \(A \cdot \displaystyle\frac{1}{6}(5I_n – A) = \displaystyle\frac{1}{6}(5A – A^2) = \displaystyle\frac{1}{6}(5A – (5A – 6I_n)) = \displaystyle\frac{1}{6} \cdot 6I_n = I_n\). ✓


Exercice 4 (★★★ I) — \(I_n + AB\) et \(I_p + BA\)

Soient \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) et \(B \in \mathcal{M}_{p,n}(\mathbb{K})\). Montrer que :

\(I_n + AB \text{ inversible} \iff I_p + BA \text{ inversible}\)
Voir la correction

On montre l’implication directe ; l’implication réciproque s’obtient en échangeant les rôles de \((A, B, n, p)\) et \((B, A, p, n)\).

Sens \(\Rightarrow\) : supposons \(I_n + AB\) inversible. Posons \(C = (I_n + AB)^{-1}\). On va montrer que \(I_p – BCA\) est l’inverse de \(I_p + BA\).

Calculons :

\((I_p + BA)(I_p – BCA) = I_p – BCA + BA – BABCA\) \(= I_p + BA – B(I_n + AB)CA\) \(= I_p + BA – B \underbrace{(I_n + AB)C}_{= I_n} A\) \(= I_p + BA – BA = I_p\)

Donc \((I_p + BA)^{-1} = I_p – B(I_n + AB)^{-1}A\), ce qui prouve que \(I_p + BA\) est inversible.

Sens \(\Leftarrow\) : par symétrie — on échange \((A, n)\) et \((B, p)\) dans l’argument ci-dessus — si \(I_p + BA\) est inversible, alors \(I_n + AB\) l’est aussi.

Remarque : ce résultat est vrai même si \(A\) et \(B\) sont rectangulaires (de dimensions compatibles). C’est un grand classique des concours X, Mines-Ponts et Centrale.


Exercice 5 (★★★) — Matrice paramétrique

Soit \(a \in \mathbb{R}\) et \(A_a = \begin{pmatrix} 1 & a & a \\ a & 1 & a \\ a & a & 1 \end{pmatrix}\). Déterminer les valeurs de \(a\) pour lesquelles \(A_a\) est inversible.

Voir la correction

On calcule \(\det(A_a)\). En effectuant \(C_2 \leftarrow C_2 – C_1\) et \(C_3 \leftarrow C_3 – C_1\) :

\(\det(A_a) = \begin{vmatrix} 1 & a-1 & a-1 \\ a & 1-a & 0 \\ a & 0 & 1-a \end{vmatrix}\)

On factorise \((a-1)\) dans \(C_2\) et \((a-1)\) dans \(C_3\) (si \(a \neq 1\)) :

\(= (a-1)^2 \begin{vmatrix} 1 & 1 & 1 \\ a & -1 & 0 \\ a & 0 & -1 \end{vmatrix}\)

En développant par rapport à la première ligne :

\(= (a-1)^2 \left[1 \cdot \begin{vmatrix} -1 & 0 \\ 0 & -1 \end{vmatrix} – 1 \cdot \begin{vmatrix} a & 0 \\ a & -1 \end{vmatrix} + 1 \cdot \begin{vmatrix} a & -1 \\ a & 0 \end{vmatrix}\right]\) \(= (a-1)^2 [1 \cdot 1 – 1 \cdot (-a) + 1 \cdot a] = (a-1)^2(1 + 2a)\)

Donc :

\(\det(A_a) = (a-1)^2(2a+1)\)

On a \(\det(A_a) = 0 \iff a = 1\) ou \(a = -\displaystyle\frac{1}{2}\).

Conclusion : \(A_a\) est inversible si et seulement si \(a \neq 1\) et \(a \neq -\displaystyle\frac{1}{2}\).


Exercice 6 (★★★) — Inversibilité par factorisation

Soient \(A, B \in \mathcal{M}_n(\mathbb{K})\) telles que \(AB = A + B\).

  1. Montrer que \(A – I_n\) et \(B – I_n\) sont inversibles et que \((A – I_n)^{-1} = B – I_n\).
  2. En déduire que \(AB = BA\).
Voir la correction

1. On réécrit la relation \(AB = A + B\) :

\(AB – A – B = 0 \iff AB – A – B + I_n = I_n \iff (A – I_n)(B – I_n) = I_n\)

On a exhibé un produit de deux matrices qui donne \(I_n\). En dimension finie (rappel de la section I), cela suffit à conclure que les deux facteurs sont inversibles et que :

\((A – I_n)^{-1} = B – I_n \quad \text{et} \quad (B – I_n)^{-1} = A – I_n\)

2. Puisque \((A – I_n)(B – I_n) = I_n\), on a aussi \((B – I_n)(A – I_n) = I_n\) (propriété vue en I.A). En développant :

\((B – I_n)(A – I_n) = BA – A – B + I_n = I_n\)

Donc \(BA = A + B = AB\). Les matrices \(A\) et \(B\) commutent.


Exercice 7 (★★★★) — Matrice nilpotente et série géométrique matricielle

Soit \(A \in \mathcal{M}_n(\mathbb{K})\) une matrice nilpotente d’indice \(k\) (c’est-à-dire \(A^k = 0\) et \(A^{k-1} \neq 0\)).

  1. Montrer que \(I_n – A\) est inversible.
  2. Exprimer \((I_n – A)^{-1}\) sous forme de somme finie.
  3. En déduire que \(I_n + A\) est inversible et donner son inverse.
Voir la correction

1. On utilise l’identité algébrique (valable car le produit matriciel est associatif et \(I_n\) commute avec toute matrice) :

\((I_n – A)(I_n + A + A^2 + \cdots + A^{k-1}) = I_n – A^k = I_n – 0 = I_n\)

On a exhibé un inverse à droite, donc \(I_n – A\) est inversible.

2.

\((I_n – A)^{-1} = \sum_{j=0}^{k-1} A^j = I_n + A + A^2 + \cdots + A^{k-1}\)

C’est l’analogue matriciel de la somme géométrique : \(\displaystyle\frac{1}{1-x} = \sum_{j=0}^{\infty} x^j\), mais ici la somme est finie car \(A^k = 0\).

3. La matrice \(-A\) est aussi nilpotente d’indice \(k\) (car \((-A)^k = (-1)^k A^k = 0\)). En appliquant le résultat précédent à \(-A\) :

\((I_n + A)^{-1} = (I_n – (-A))^{-1} = \sum_{j=0}^{k-1} (-A)^j = \sum_{j=0}^{k-1} (-1)^j A^j\) \(= I_n – A + A^2 – A^3 + \cdots + (-1)^{k-1} A^{k-1}\)

VI. Erreurs fréquentes et pièges classiques

Voici les erreurs les plus fréquentes relevées dans les copies de DS et de concours.

Erreur n°1 — Inverser l’ordre dans \((AB)^{-1}\)

Copie fautive : « \((AB)^{-1} = A^{-1}B^{-1}\) »

Diagnostic : L’étudiant applique l’inverse terme à terme, comme si le produit était commutatif. C’est faux dès que \(n \geq 2\).

Correction : \((AB)^{-1} = B^{-1}A^{-1}\). L’ordre s’inverse. La vérification : \((AB)(B^{-1}A^{-1}) = A(BB^{-1})A^{-1} = AI_nA^{-1} = I_n\).

Erreur n°2 — Confondre \(A\) inversible et \(A \neq 0\)

Copie fautive : « \(A\) n’est pas la matrice nulle, donc \(A\) est inversible. »

Diagnostic : une matrice non nulle peut parfaitement être non inversible. Par exemple \(\begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} \neq 0_2\) mais \(\det = 0\).

Correction : l’inversibilité nécessite l’un des 10 critères du théorème. « Non nul » n’en fait pas partie.

Erreur n°3 — Raisonnement circulaire

Copie fautive : « On calcule \(A^{-1} = \displaystyle\frac{1}{\det(A)} {}^t\!\mathrm{Com}(A) = \ldots\) Donc \(A\) est inversible. »

Diagnostic : l’étudiant utilise la formule de l’inverse avant d’avoir prouvé l’inversibilité. La formule \(A^{-1} = \displaystyle\frac{1}{\det(A)} {}^t\!\mathrm{Com}(A)\) n’a de sens que si \(\det(A) \neq 0\).

Correction : d’abord montrer \(\det(A) \neq 0\) (ou utiliser un autre critère), puis ensuite calculer l’inverse si nécessaire.

Erreur n°4 — Croire que \(A^2 = I_n \Rightarrow A = \pm I_n\)

Copie fautive : « Si \(A^2 = I_n\), alors \(A = I_n\) ou \(A = -I_n\). »

Diagnostic : c’est vrai pour les réels (\(x^2 = 1 \Rightarrow x = \pm 1\)) mais faux pour les matrices. Les matrices involutives (\(A^2 = I_n\)) forment un ensemble bien plus riche. Par exemple : \(A = \begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}\), \(A = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}\).

Correction : \(A^2 = I_n\) signifie que \(A\) est inversible d’inverse \(A^{-1} = A\). Rien de plus.


VII. Questions fréquentes

Comment savoir si une matrice est inversible ?

Le moyen le plus direct est de calculer le déterminant : une matrice \(A \in \mathcal{M}_n(\mathbb{K})\) est inversible si et seulement si \(\det(A) \neq 0\). Pour les matrices de grande taille ou abstraites, on peut aussi vérifier que le noyau est trivial (\(\ker(A) = \{0\}\)) ou que le rang est maximal (\(\mathrm{rg}(A) = n\)). En présence d’une relation polynomiale \(P(A) = 0\) avec \(P(0) \neq 0\), l’inversibilité est immédiate.

Une matrice 2×3 est-elle inversible ?

Non, par définition. L’inversibilité n’est définie que pour les matrices carrées (\(n = p\)). Une matrice \(A \in \mathcal{M}_{2,3}(\mathbb{K})\) ne peut pas admettre d’inverse : il n’existe pas de matrice \(B\) telle que \(AB = I_2\) et \(BA = I_3\) (les tailles ne sont même pas compatibles pour les deux produits simultanément).

Quelle est la différence entre matrice inverse et matrice inversible ?

Une matrice inversible est une matrice carrée \(A\) qui possède un inverse. La matrice inverse (notée \(A^{-1}\)) est cet inverse lui-même, c’est-à-dire la matrice \(B\) telle que \(AB = BA = I_n\). En résumé : « inversible » est une propriété de \(A\) ; « inverse » désigne la matrice \(A^{-1}\). Le calcul effectif de l’inverse fait l’objet d’une page dédiée.

Comment montrer qu'une matrice est inversible sans calculer le déterminant ?

Plusieurs stratégies existent : (1) montrer que \(\ker(A) = \{0\}\) en résolvant \(AX = 0\) ; (2) utiliser une relation polynomiale \(P(A) = 0\) avec \(P(0) \neq 0\) ; (3) exhiber directement un inverse \(B\) tel que \(AB = I_n\) ; (4) montrer que le rang de \(A\) est \(n\). La méthode polynomiale est particulièrement puissante en concours car elle donne à la fois l’inversibilité et l’expression de \(A^{-1}\).

Est-ce que toute matrice carrée est inversible ?

Non. Seules les matrices carrées de déterminant non nul sont inversibles. Par exemple, la matrice nulle \(0_n\) est carrée mais pas inversible (son déterminant est \(0\)). L’ensemble des matrices inversibles \(\mathrm{GL}_n(\mathbb{K})\) est un sous-ensemble strict de \(\mathcal{M}_n(\mathbb{K})\).

Quel est le lien entre matrice inversible et système linéaire ?

Si \(A \in \mathrm{GL}_n(\mathbb{K})\), alors pour tout second membre \(B \in \mathbb{K}^n\), le système \(AX = B\) admet une unique solution \(X = A^{-1}B\). Réciproquement, si le système \(AX = B\) admet une unique solution pour tout \(B\), alors \(A\) est inversible. C’est le critère (9) du théorème de caractérisation.


VIII. Pour aller plus loin

Tu maîtrises maintenant la notion de matrice inversible, ses critères de reconnaissance et ses propriétés algébriques. Voici les prolongements naturels dans le programme de CPGE :

Applications concrètes : les matrices inversibles interviennent en cryptographie (chiffrement de Hill : le message se déchiffre en multipliant par \(A^{-1} \pmod{26}\)), en résolution de systèmes physiques (lois de Kirchhoff, mécanique des structures), et dans les chaînes de Markov (existence d’une distribution stationnaire).

Conforme au programme officiel des CPGE scientifiques 2025-2026.

Logo-excellence-maths
Prêt à décrocher les meilleures notes en maths ?
Travaille avec un professeur diplômé de Polytechnique qui connaît les attentes des concours. Cours particuliers sur-mesure, progression rapide et méthodologie éprouvée. Premier cours satisfait ou remboursé.