Ces 24 exercices corrigés couvrent l’essentiel du calcul matriciel, de la Terminale Maths Expertes jusqu’aux oraux X/ENS : produit, inverse, déterminant, puissance et types de matrices. Chaque correction détaille les étapes de rédaction avec le niveau d’exigence attendu en DS, en colle ou à l’oral.
Un système de badges indique le niveau visé pour chaque exercice :
- 🔵 Lycée : accessible en Terminale Spé Maths et Maths Expertes
- 🟠 Prépa : MPSI, PCSI, MP, PC, PSI
- 🔴 Concours / Oral X-ENS : niveau des oraux les plus exigeants
La difficulté progresse du calcul direct (★) aux problèmes de synthèse des oraux X, Mines-Ponts, Centrale et ENS (★★★★★ et au-delà). Les exercices marqués I sont les incontournables, ceux qu’il faut savoir refaire les yeux fermés le jour du concours.
Tu retrouveras en fin de page un PDF téléchargeable contenant l’ensemble des énoncés et corrections, prêt à imprimer.
I. Rappel des formules essentielles
Produit matriciel. Si \(A \in \mathcal{M}_{n,p}(K)\) et \(B \in \mathcal{M}_{p,q}(K)\), le produit \(AB \in \mathcal{M}_{n,q}(K)\) est défini par :
\((AB)_{i,j} = \displaystyle\sum_{k=1}^{p} a_{i,k}\, b_{k,j}\)
Inverse d’une matrice 2×2. Si \(\det(A) \neq 0\) avec \(A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}\), alors :
\(A^{-1} = \displaystyle\frac{1}{ad – bc} \begin{pmatrix} d & -b \\ -c & a \end{pmatrix}\)
Déterminant 3×3 (Sarrus).
\(\det(A) = a_{11}a_{22}a_{33} + a_{12}a_{23}a_{31} + a_{13}a_{21}a_{32} – a_{13}a_{22}a_{31} – a_{12}a_{21}a_{33} – a_{11}a_{23}a_{32}\)
Propriétés opératoires fondamentales :
- \(\det(AB) = \det(A)\det(B)\)
- \((AB)^T = B^T A^T\), l’ordre s’inverse
- \((AB)^{-1} = B^{-1}A^{-1}\), l’ordre s’inverse
- \(\mathrm{tr}(AB) = \mathrm{tr}(BA)\)
II. Exercices d’application directe (★–★★)
Ces six exercices vérifient la maîtrise des opérations élémentaires sur les matrices. Un préparationnaire doit les résoudre sans hésitation.
Exercice 1 · ★ I · 🔵 🟠 · Produit de deux matrices 2×2
Soient \(A = \begin{pmatrix} 2 & -1 \\ 3 & 4 \end{pmatrix}\) et \(B = \begin{pmatrix} 1 & 5 \\ -2 & 0 \end{pmatrix}\). Calculer \(AB\).
Voir la correction
On applique la formule du produit matriciel :
\(AB = \begin{pmatrix} 2 \times 1 + (-1) \times (-2) & 2 \times 5 + (-1) \times 0 \\ 3 \times 1 + 4 \times (-2) & 3 \times 5 + 4 \times 0 \end{pmatrix} = \begin{pmatrix} 4 & 10 \\ -5 & 15 \end{pmatrix}\)Exercice 2 · ★ · 🟠 · Produit de matrices rectangulaires
Soient \(A = \begin{pmatrix} 1 & 0 & -1 \\ 2 & 1 & 3 \end{pmatrix} \in \mathcal{M}_{2,3}(\mathbb{R})\) et \(B = \begin{pmatrix} 1 & 2 \\ 0 & 1 \\ -1 & 0 \end{pmatrix} \in \mathcal{M}_{3,2}(\mathbb{R})\).
a) Calculer \(AB\). b) Calculer \(BA\). c) Les matrices \(AB\) et \(BA\) ont-elles la même taille ?
Voir la correction
a) \(A \in \mathcal{M}_{2,3}\) et \(B \in \mathcal{M}_{3,2}\) : le produit \(AB\) est défini, de taille \(2 \times 2\).
\(AB = \begin{pmatrix} 1+0+1 & 2+0+0 \\ 2+0-3 & 4+1+0 \end{pmatrix} = \begin{pmatrix} 2 & 2 \\ -1 & 5 \end{pmatrix}\)b) \(BA \in \mathcal{M}_{3,3}\) :
\(BA = \begin{pmatrix} 5 & 2 & 5 \\ 2 & 1 & 3 \\ -1 & 0 & 1 \end{pmatrix}\)c) Non : \(AB \in \mathcal{M}_2(\mathbb{R})\) et \(BA \in \mathcal{M}_3(\mathbb{R})\). Les deux produits existent mais n’ont pas la même taille ; a fortiori ils ne sont pas égaux.
Exercice 3 · ★ I · 🔵 🟠 · Inverse d’une matrice 2×2
Soit \(A = \begin{pmatrix} 3 & 1 \\ 5 & 2 \end{pmatrix}\). Calculer \(A^{-1}\) et vérifier le résultat.
Voir la correction
\(\det(A) = 3 \times 2 – 1 \times 5 = 1 \neq 0\). La matrice est inversible.
Par la formule de l’inverse 2×2 :
\(A^{-1} = \displaystyle\frac{1}{1}\begin{pmatrix} 2 & -1 \\ -5 & 3 \end{pmatrix} = \begin{pmatrix} 2 & -1 \\ -5 & 3 \end{pmatrix}\)Vérification :
\(AA^{-1} = \begin{pmatrix} 6-5 & -3+3 \\ 10-10 & -5+6 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = I_2 \quad \text{✓}\)Les 20 exercices + corrigés détaillés en PDF
Énoncés et corrections prêts à imprimer, pour réviser efficacement sans écran.
📄 Télécharger le PDF gratuitIdéal pour tes révisions de colles et de DS.
Exercice 4 · ★ I · 🔵 🟠 · Déterminant 3×3 par la règle de Sarrus
Calculer \(\det(A)\) avec \(A = \begin{pmatrix} 2 & -1 & 3 \\ 0 & 4 & 1 \\ 1 & 2 & -2 \end{pmatrix}\).
Voir la correction
Par la règle de Sarrus :
Diagonales descendantes : \(2 \times 4 \times (-2) + (-1) \times 1 \times 1 + 3 \times 0 \times 2 = -16 – 1 + 0 = -17\)
Diagonales montantes : \(3 \times 4 \times 1 + (-1) \times 0 \times (-2) + 2 \times 1 \times 2 = 12 + 0 + 4 = 16\)
\(\det(A) = -17 – 16 = -33\)Vérification par développement selon la 1re colonne (le coefficient \(a_{21} = 0\) simplifie le calcul) :
\(\det(A) = 2(4 \times (-2) – 1 \times 2) – 0 + 1((-1) \times 1 – 3 \times 4) = 2(-10) + (-13) = -33 \quad \text{✓}\)Exercice 5 · ★★ I · 🔵 🟠 · Puissance d’une matrice diagonale
Soit \(D = \begin{pmatrix} 2 & 0 & 0 \\ 0 & -1 & 0 \\ 0 & 0 & 3 \end{pmatrix}\). Exprimer \(D^n\) pour tout \(n \in \mathbb{N}\).
Voir la correction
Pour toute matrice diagonale \(D = \mathrm{diag}(d_1, \ldots, d_p)\), on a \(D^n = \mathrm{diag}(d_1^n, \ldots, d_p^n)\). Cela se démontre par récurrence immédiate sur \(n\).
Ici :
\(\forall n \in \mathbb{N}, \quad D^n = \begin{pmatrix} 2^n & 0 & 0 \\ 0 & (-1)^n & 0 \\ 0 & 0 & 3^n \end{pmatrix}\)Vérification : \(D^0 = I_3\) ✓ et \(D^1 = D\) ✓.
Exercice 6 · ★★ · 🟠 · Transposée du produit
Soient \(A = \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}\) et \(B = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}\).
a) Calculer \((AB)^T\). b) Calculer \(B^T A^T\). c) Comparer les deux résultats.
Voir la correction
a) \(AB = \begin{pmatrix} 2 & 1 \\ 4 & 3 \end{pmatrix}\), donc \((AB)^T = \begin{pmatrix} 2 & 4 \\ 1 & 3 \end{pmatrix}\).
b) \(B^T = B = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}\) (matrice symétrique) et \(A^T = \begin{pmatrix} 1 & 3 \\ 2 & 4 \end{pmatrix}\).
\(B^T A^T = \begin{pmatrix} 2 & 4 \\ 1 & 3 \end{pmatrix}\)c) On vérifie bien \((AB)^T = B^T A^T\). C’est une illustration de la propriété générale : la transposée du produit est le produit des transposées en ordre inversé.
Exercice 7 · ★★ · 🔵 · Suite couplée et puissance matricielle (type Maths Expertes)
On définit deux suites \((u_n)\) et \((v_n)\) par \(u_0 = 1\), \(v_0 = 0\) et, pour tout \(n \in \mathbb{N}\) :
\(\begin{cases} u_{n+1} = 2u_n + v_n \\ v_{n+1} = u_n + 2v_n \end{cases}\)On pose \(X_n = \begin{pmatrix} u_n \\ v_n \end{pmatrix}\) et \(A = \begin{pmatrix} 2 & 1 \\ 1 & 2 \end{pmatrix}\).
a) Montrer que \(X_n = A^n X_0\) pour tout \(n \in \mathbb{N}\).
b) Calculer \(A^2\) et vérifier que \(A^2 – 4A + 3I_2 = 0\).
c) En déduire que pour tout \(n \geq 1\), \(A^n = \alpha_n A + \beta_n I_2\). Expliciter \(\alpha_n\) et \(\beta_n\).
d) En déduire les expressions de \(u_n\) et \(v_n\) en fonction de \(n\).
Voir la correction
a) Récurrence immédiate. \(X_0 = A^0 X_0\) est évident. Si \(X_n = A^n X_0\), alors \(X_{n+1} = AX_n = A \cdot A^n X_0 = A^{n+1} X_0\).
b) \(A^2 = \begin{pmatrix} 4+1 & 2+2 \\ 2+2 & 1+4 \end{pmatrix} = \begin{pmatrix} 5 & 4 \\ 4 & 5 \end{pmatrix}\).
\(A^2 – 4A + 3I_2 = \begin{pmatrix} 5 & 4 \\ 4 & 5 \end{pmatrix} – \begin{pmatrix} 8 & 4 \\ 4 & 8 \end{pmatrix} + \begin{pmatrix} 3 & 0 \\ 0 & 3 \end{pmatrix} = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}\) ✓
Cette relation est le théorème de Cayley-Hamilton appliqué à \(A\) : \(\mathrm{tr}(A) = 4\) et \(\det(A) = 3\).
c) Posons \(A^n = \alpha_n A + \beta_n I_2\) pour \(n \geq 1\).
Calcul de \(A^{n+1}\) : on écrit \(A^{n+1} = A \cdot A^n = A(\alpha_n A + \beta_n I_2) = \alpha_n A^2 + \beta_n A\).
Or \(A^2 = 4A – 3I_2\) (question b), donc :
\(A^{n+1} = \alpha_n(4A – 3I_2) + \beta_n A = (4\alpha_n + \beta_n) A – 3\alpha_n I_2\)On en tire le système : \(\alpha_{n+1} = 4\alpha_n + \beta_n\) et \(\beta_{n+1} = -3\alpha_n\).
En substituant, \(\alpha_{n+1} = 4\alpha_n – 3\alpha_{n-1}\), récurrence linéaire d’ordre 2.
L’équation caractéristique \(r^2 – 4r + 3 = 0\) admet pour racines \(r_1 = 1\) et \(r_2 = 3\). Donc \(\alpha_n = \lambda + \mu \cdot 3^n\).
Conditions initiales : \(A^1 = A\) donne \(\alpha_1 = 1\) et \(\beta_1 = 0\). Et pour la récurrence sur \(\alpha\), on peut poser \(\alpha_0 = 0\) (cohérent avec \(A^0 = I_2\)).
Système : \(\lambda + \mu = 0\) et \(\lambda + 3\mu = 1\). D’où \(\mu = \displaystyle\frac{1}{2}\), \(\lambda = -\displaystyle\frac{1}{2}\).
\(\alpha_n = \displaystyle\frac{3^n – 1}{2}, \quad \beta_n = -3\alpha_{n-1} = \displaystyle\frac{3 – 3^n}{2}\)Formule finale :
\(A^n = \displaystyle\frac{3^n – 1}{2} A + \displaystyle\frac{3 – 3^n}{2} I_2 = \displaystyle\frac{1}{2} \begin{pmatrix} 3^n + 1 & 3^n – 1 \\ 3^n – 1 & 3^n + 1 \end{pmatrix}\)Vérification : \(n = 1\) donne \(\displaystyle\frac{1}{2}\begin{pmatrix} 4 & 2 \\ 2 & 4 \end{pmatrix} = A\) ✓ ; \(n = 2\) donne \(\displaystyle\frac{1}{2}\begin{pmatrix} 10 & 8 \\ 8 & 10 \end{pmatrix} = A^2\) ✓.
d) \(X_n = A^n X_0\) avec \(X_0 = \begin{pmatrix} 1 \\ 0 \end{pmatrix}\). On lit donc la première colonne de \(A^n\) :
\(u_n = \displaystyle\frac{3^n + 1}{2}, \quad v_n = \displaystyle\frac{3^n – 1}{2}\)Vérification : \(u_0 = 1, v_0 = 0\) ✓. \(u_1 = 2, v_1 = 1\) ; calcul direct \(u_1 = 2 \cdot 1 + 0 = 2\) et \(v_1 = 1 + 2 \cdot 0 = 1\) ✓.
Pourquoi cette méthode fonctionne. Toute matrice 2×2 vérifie une relation polynomiale de degré 2 (Cayley-Hamilton). Cela permet d’exprimer toutes les puissances \(A^n\) comme combinaison linéaire de \(I_2\) et \(A\), sans avoir besoin de diagonaliser explicitement. C’est la méthode la plus rapide pour résoudre les problèmes de suites couplées en Maths Expertes.
III. Exercices d’approfondissement (★★★)
Ces sept exercices mobilisent plusieurs propriétés et nécessitent une rédaction soignée. Ce sont des classiques de colles et de DS en CPGE scientifique.
Exercice 8 · ★★★ · 🟠 · Non-commutativité et diviseurs de zéro
Soient \(A = \begin{pmatrix} 1 & 1 \\ 2 & 2 \end{pmatrix}\) et \(B = \begin{pmatrix} 1 & -1 \\ -1 & 1 \end{pmatrix}\).
a) Calculer \(AB\). b) En déduire une propriété remarquable de \(A\) et \(B\). c) Calculer \(BA\). A-t-on \(AB = BA\) ?
Voir la correction
a)
\(AB = \begin{pmatrix} 1-1 & -1+1 \\ 2-2 & -2+2 \end{pmatrix} = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}\)b) On a \(A \neq 0\), \(B \neq 0\), mais \(AB = 0\). Les matrices \(A\) et \(B\) sont des diviseurs de zéro dans \(\mathcal{M}_2(\mathbb{R})\). Cela montre que l’algèbre des matrices n’est pas intègre.
c)
\(BA = \begin{pmatrix} 1-2 & 1-2 \\ -1+2 & -1+2 \end{pmatrix} = \begin{pmatrix} -1 & -1 \\ 1 & 1 \end{pmatrix} \neq 0\)On a \(AB = 0\) mais \(BA \neq 0\) : le produit matriciel n’est pas commutatif, et \(AB = 0 \not\Rightarrow BA = 0\).
Exercice 9 · ★★★ I · 🟠 · Inverse d’une matrice 3×3 par le pivot de Gauss
Calculer l’inverse de \(A = \begin{pmatrix} 1 & 1 & 1 \\ 1 & 2 & 3 \\ 1 & 3 & 6 \end{pmatrix}\) par la méthode de Gauss-Jordan.
Voir la correction
On échelonne la matrice augmentée \((A \mid I_3)\) :
\(\left(\begin{array}{ccc|ccc} 1 & 1 & 1 & 1 & 0 & 0 \\ 1 & 2 & 3 & 0 & 1 & 0 \\ 1 & 3 & 6 & 0 & 0 & 1 \end{array}\right)\)\(L_2 \leftarrow L_2 – L_1\), \(L_3 \leftarrow L_3 – L_1\) :
\(\left(\begin{array}{ccc|ccc} 1 & 1 & 1 & 1 & 0 & 0 \\ 0 & 1 & 2 & -1 & 1 & 0 \\ 0 & 2 & 5 & -1 & 0 & 1 \end{array}\right)\)\(L_3 \leftarrow L_3 – 2L_2\) :
\(\left(\begin{array}{ccc|ccc} 1 & 1 & 1 & 1 & 0 & 0 \\ 0 & 1 & 2 & -1 & 1 & 0 \\ 0 & 0 & 1 & 1 & -2 & 1 \end{array}\right)\)Remontée : \(L_2 \leftarrow L_2 – 2L_3\), \(L_1 \leftarrow L_1 – L_3\) :
\(\left(\begin{array}{ccc|ccc} 1 & 1 & 0 & 0 & 2 & -1 \\ 0 & 1 & 0 & -3 & 5 & -2 \\ 0 & 0 & 1 & 1 & -2 & 1 \end{array}\right)\)\(L_1 \leftarrow L_1 – L_2\) :
\(\left(\begin{array}{ccc|ccc} 1 & 0 & 0 & 3 & -3 & 1 \\ 0 & 1 & 0 & -3 & 5 & -2 \\ 0 & 0 & 1 & 1 & -2 & 1 \end{array}\right)\)D’où :
\(A^{-1} = \begin{pmatrix} 3 & -3 & 1 \\ -3 & 5 & -2 \\ 1 & -2 & 1 \end{pmatrix}\)Pour plus de détails sur cette technique, consulte la fiche méthode inverse 3×3.
Exercice 10 · ★★★ · 🟠 · Décomposition symétrique + antisymétrique
Soit \(M = \begin{pmatrix} 1 & 3 & 5 \\ 2 & 4 & 1 \\ 0 & 6 & 2 \end{pmatrix}\). Écrire \(M = S + A\) avec \(S\) symétrique et \(A\) antisymétrique.
Voir la correction
L’unique décomposition est \(S = \displaystyle\frac{M + M^T}{2}\) et \(A = \displaystyle\frac{M – M^T}{2}\).
\(M^T = \begin{pmatrix} 1 & 2 & 0 \\ 3 & 4 & 6 \\ 5 & 1 & 2 \end{pmatrix}\) \(S = \displaystyle\frac{1}{2}\begin{pmatrix} 2 & 5 & 5 \\ 5 & 8 & 7 \\ 5 & 7 & 4 \end{pmatrix} = \begin{pmatrix} 1 & \displaystyle\frac{5}{2} & \displaystyle\frac{5}{2} \\[4pt] \displaystyle\frac{5}{2} & 4 & \displaystyle\frac{7}{2} \\[4pt] \displaystyle\frac{5}{2} & \displaystyle\frac{7}{2} & 2 \end{pmatrix}\) \(A = \displaystyle\frac{1}{2}\begin{pmatrix} 0 & 1 & 5 \\ -1 & 0 & -5 \\ -5 & 5 & 0 \end{pmatrix} = \begin{pmatrix} 0 & \displaystyle\frac{1}{2} & \displaystyle\frac{5}{2} \\[4pt] -\displaystyle\frac{1}{2} & 0 & -\displaystyle\frac{5}{2} \\[4pt] -\displaystyle\frac{5}{2} & \displaystyle\frac{5}{2} & 0 \end{pmatrix}\)Vérification : \(S^T = S\) ✓, \(A^T = -A\) ✓, \(S + A = M\) ✓.
Cette décomposition existe et est unique pour toute matrice carrée. On utilise ici que \(\mathcal{M}_n(\mathbb{R}) = \mathcal{S}_n(\mathbb{R}) \oplus \mathcal{A}_n(\mathbb{R})\).
Exercice 11 · ★★★ · 🟠 · Matrice nilpotente
Soit \(N = \begin{pmatrix} 0 & 1 & 1 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix}\).
a) Calculer \(N^2\) et \(N^3\). b) \(N\) est-elle nilpotente ? Si oui, préciser son indice de nilpotence.
Voir la correction
a)
\(N^2 = \begin{pmatrix} 0 & 0 & 1 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}, \quad N^3 = N^2 \cdot N = \begin{pmatrix} 0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix} = 0\)b) \(N^3 = 0\) et \(N^2 \neq 0\), donc \(N\) est nilpotente d’indice 3.
Remarque : \(N\) est triangulaire supérieure stricte, donc nilpotente. Pour une matrice de \(\mathcal{M}_n(K)\) triangulaire supérieure stricte, l’indice de nilpotence est au plus \(n\).
Exercice 12 · ★★★ · 🟠 · Matrice de Fibonacci et puissance \(A^n\)
Soit \(A = \begin{pmatrix} 1 & 1 \\ 1 & 0 \end{pmatrix}\). On note \((F_n)_{n \geq 0}\) la suite de Fibonacci définie par \(F_0 = 0\), \(F_1 = 1\) et \(\forall n \in \mathbb{N},\; F_{n+2} = F_{n+1} + F_n\).
a) Montrer par récurrence que \(\forall n \geq 1, \quad A^n = \begin{pmatrix} F_{n+1} & F_n \\ F_n & F_{n-1} \end{pmatrix}\).
b) En déduire l’identité de Cassini : \(F_{n+1}F_{n-1} – F_n^2 = (-1)^n\).
Voir la correction
a) Récurrence sur \(n \geq 1\).
Initialisation : \(A^1 = \begin{pmatrix} 1 & 1 \\ 1 & 0 \end{pmatrix} = \begin{pmatrix} F_2 & F_1 \\ F_1 & F_0 \end{pmatrix}\) ✓ (car \(F_0 = 0, F_1 = 1, F_2 = 1\)).
Hérédité : supposons \(A^n = \begin{pmatrix} F_{n+1} & F_n \\ F_n & F_{n-1} \end{pmatrix}\). Alors :
\(A^{n+1} = A^n \cdot A = \begin{pmatrix} F_{n+1} & F_n \\ F_n & F_{n-1} \end{pmatrix}\begin{pmatrix} 1 & 1 \\ 1 & 0 \end{pmatrix} = \begin{pmatrix} F_{n+1} + F_n & F_{n+1} \\ F_n + F_{n-1} & F_n \end{pmatrix} = \begin{pmatrix} F_{n+2} & F_{n+1} \\ F_{n+1} & F_n \end{pmatrix}\)La propriété est héréditaire. ∎
b) On a \(\det(A^n) = (\det A)^n = (-1)^n\).
Or \(\det(A^n) = F_{n+1}F_{n-1} – F_n^2\).
D’où \(F_{n+1}F_{n-1} – F_n^2 = (-1)^n\). ∎
Exercice 13 · ★★★ · 🟠 · Déterminant d’une matrice 4×4
Calculer \(\det(A)\) avec \(A = \begin{pmatrix} 1 & 0 & 2 & 0 \\ 3 & 1 & 0 & 4 \\ 0 & 0 & 1 & 2 \\ 2 & 0 & 3 & 1 \end{pmatrix}\).
Voir la correction
La colonne 2 contient trois zéros (positions \((1,2)\), \((3,2)\) et \((4,2)\)). On développe selon la colonne 2 :
\(\det(A) = (-1)^{2+2} \times 1 \times \det\begin{pmatrix} 1 & 2 & 0 \\ 0 & 1 & 2 \\ 2 & 3 & 1 \end{pmatrix}\)(les trois autres cofacteurs sont nuls)
Calculons le déterminant 3×3 par Sarrus :
Diagonales + : \(1 \times 1 \times 1 + 2 \times 2 \times 2 + 0 \times 0 \times 3 = 1 + 8 + 0 = 9\)
Diagonales – : \(0 \times 1 \times 2 + 2 \times 0 \times 1 + 1 \times 2 \times 3 = 0 + 0 + 6 = 6\)
\(\det(A) = 9 – 6 = 3\)Exercice 14 · ★★★ I · 🟠 · Inversibilité : \(AB = I_n \Rightarrow BA = I_n\)
Soient \(A, B \in \mathcal{M}_n(K)\) telles que \(AB = I_n\). Démontrer que \(BA = I_n\).
Voir la correction
De \(AB = I_n\), on déduit :
\(\det(AB) = \det(I_n) = 1\)Or \(\det(AB) = \det(A) \det(B)\), donc \(\det(A) \neq 0\).
Ainsi \(A\) est inversible. Multiplions \(AB = I_n\) à gauche par \(A^{-1}\) :
\(A^{-1}(AB) = A^{-1} \quad \Rightarrow \quad B = A^{-1}\)Donc \(BA = A^{-1}A = I_n\). ∎
Ce que le correcteur attend : le passage clé est l’utilisation du déterminant pour montrer l’inversibilité de \(A\). En dimension infinie, ce résultat est faux ; il existe des opérateurs vérifiant \(AB = \mathrm{Id}\) mais \(BA \neq \mathrm{Id}\).
IV. Problèmes de synthèse et type concours (★★★★ – ★★★★★)
Ces dix problèmes sont représentatifs de ce qui est attendu aux concours X, Mines-Ponts, Centrale et aux oraux ENS. Ils mobilisent plusieurs chapitres et exigent une rédaction rigoureuse. Les trois derniers (Ex 22, 23, 24) sont typiques des oraux X/ENS et demandent des outils plus subtils (polynômes, topologie, analyse des racines complexes).
Exercice 15 · ★★★★ I · 🟠 🔴 · Puissance par décomposition nilpotente (binôme de Newton)
Soit \(A = \begin{pmatrix} 3 & 1 & 0 \\ 0 & 3 & 1 \\ 0 & 0 & 3 \end{pmatrix}\). Calculer \(A^n\) pour tout \(n \in \mathbb{N}\).
Voir la correction
Posons \(A = 3I_3 + N\) avec \(N = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix}\).
On a \(N^2 = \begin{pmatrix} 0 & 0 & 1 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}\) et \(N^3 = 0\) : \(N\) est nilpotente d’indice 3.
Les matrices \(3I_3\) et \(N\) commutent (toute matrice commute avec un scalaire fois l’identité), donc on applique le binôme de Newton :
\(A^n = (3I_3 + N)^n = \displaystyle\sum_{k=0}^{\min(n,2)} C_{n}^{k}\, 3^{n-k}\, N^k\)Pour \(n \geq 2\) :
\(A^n = 3^n I_3 + n \cdot 3^{n-1} N + \displaystyle\frac{n(n-1)}{2} \cdot 3^{n-2}\, N^2\)Soit, sous forme matricielle :
Résultat :
\(A^n = \begin{pmatrix} 3^n & n\cdot 3^{n-1} & \displaystyle\frac{n(n-1)}{2}\cdot 3^{n-2} \\[6pt] 0 & 3^n & n\cdot 3^{n-1} \\[4pt] 0 & 0 & 3^n \end{pmatrix}\)Vérifications : \(n = 0\) donne \(I_3\) ✓, \(n = 1\) donne \(A\) ✓, \(n = 2\) donne \(A^2 = \begin{pmatrix} 9 & 6 & 1 \\ 0 & 9 & 6 \\ 0 & 0 & 9 \end{pmatrix}\) ✓.
La formule est valable pour tout \(n \in \mathbb{N}\) (avec la convention \(C_{n}^{k} = 0\) si \(k\) > \(n\)).
Exercice 16 · ★★★★ · 🟠 🔴 · Commutant d’une matrice
Soit \(J = \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}\). Déterminer le commutant \(\mathcal{C}(J) = \{ M \in \mathcal{M}_2(\mathbb{R}) \mid JM = MJ \}\).
Voir la correction
Posons \(M = \begin{pmatrix} a & b \\ c & d \end{pmatrix}\) et calculons les deux produits :
\(JM = \begin{pmatrix} c & d \\ 0 & 0 \end{pmatrix}, \quad MJ = \begin{pmatrix} 0 & a \\ 0 & c \end{pmatrix}\) \(JM = MJ \iff \begin{cases} c = 0 \\ d = a \end{cases}\)Donc :
\(\mathcal{C}(J) = \left\{ \begin{pmatrix} a & b \\ 0 & a \end{pmatrix} \;\middle|\; (a, b) \in \mathbb{R}^2 \right\} = \{ aI_2 + bJ \mid (a, b) \in \mathbb{R}^2 \} = \mathrm{Vect}(I_2, J)\)\(\mathcal{C}(J)\) est un sous-espace vectoriel de \(\mathcal{M}_2(\mathbb{R})\) de dimension 2. C’est aussi l’algèbre des polynômes en \(J\) : \(\mathcal{C}(J) = \mathbb{R}[J]\) (puisque \(J^2 = 0\), seuls les polynômes de degré \(\leq 1\) contribuent).
Exercice 17 · ★★★★ · 🟠 🔴 · Rang d’une matrice paramétrée
Soit \(A(t) = \begin{pmatrix} 1 & t & t^2 \\ t & 1 & t \\ t^2 & t & 1 \end{pmatrix}\) pour \(t \in \mathbb{R}\). Déterminer \(\mathrm{rg}(A(t))\) en fonction de \(t\).
Voir la correction
Calculons \(\det(A(t))\) en développant selon la 1re colonne :
\(\det(A(t)) = 1 \cdot (1 – t^2) – t \cdot (t – t^3) + t^2 \cdot (t^2 – t^2)\) \(= 1 – t^2 – t^2 + t^4 + 0 = t^4 – 2t^2 + 1 = (t^2 – 1)^2\) \(\det(A(t)) = (t – 1)^2(t + 1)^2\)Cas \(t \notin \{-1, 1\}\) : \(\det(A(t)) \neq 0\), donc \(\mathrm{rg}(A(t)) = 3\).
Cas \(t = 1\) :
\(A(1) = \begin{pmatrix} 1 & 1 & 1 \\ 1 & 1 & 1 \\ 1 & 1 & 1 \end{pmatrix}\)Les trois lignes sont identiques : \(\mathrm{rg}(A(1)) = 1\).
Cas \(t = -1\) :
\(A(-1) = \begin{pmatrix} 1 & -1 & 1 \\ -1 & 1 & -1 \\ 1 & -1 & 1 \end{pmatrix}\)\(L_2 = -L_1\) et \(L_3 = L_1\) : \(\mathrm{rg}(A(-1)) = 1\).
Observation : le rang passe directement de 3 à 1 sans passer par 2. C’est lié à la structure très symétrique de \(A(t)\) : pour \(t = \pm 1\), les trois lignes deviennent simultanément colinéaires.
Exercice 18 · ★★★★ · 🟠 🔴 · Matrices orthogonales de \(\mathcal{M}_2(\mathbb{R})\)
Soit \(M \in \mathcal{M}_2(\mathbb{R})\) telle que \(M^T M = I_2\).
a) Montrer que \(\det(M) \in \{-1, 1\}\).
b) Déterminer toutes les matrices \(M\) vérifiant \(M^T M = I_2\) et \(\det(M) = 1\).
c) Même question avec \(\det(M) = -1\).
Voir la correction
a) \(\det(M^T M) = \det(I_2) = 1\). Or \(\det(M^T) = \det(M)\), donc \((\det M)^2 = 1\), d’où \(\det(M) = \pm 1\). ∎
b) Posons \(M = \begin{pmatrix} a & b \\ c & d \end{pmatrix}\). La condition \(M^T M = I_2\) se traduit par :
- \(a^2 + c^2 = 1\) et \(b^2 + d^2 = 1\) (colonnes de norme 1)
- \(ab + cd = 0\) (colonnes orthogonales)
De \(a^2 + c^2 = 1\), il existe \(\theta \in \mathbb{R}\) tel que \(a = \cos\theta\) et \(c = \sin\theta\).
La condition \(ab + cd = 0\) avec \(b^2 + d^2 = 1\) impose \((b, d) = \pm(-\sin\theta, \cos\theta)\).
• Si \((b, d) = (-\sin\theta, \cos\theta)\) : \(\det(M) = \cos^2\theta + \sin^2\theta = 1\) ✓.
Les rotations : \(R(\theta) = \begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix}\).
• Si \((b, d) = (\sin\theta, -\cos\theta)\) : \(\det(M) = -1\) ✗.
c) Le second cas donne les réflexions :
\(S(\theta) = \begin{pmatrix} \cos\theta & \sin\theta \\ \sin\theta & -\cos\theta \end{pmatrix}\)Vérification : \(S(\theta)^2 = I_2\) et \(S(\theta)^T = S(\theta)\) ✓. C’est la réflexion par rapport à la droite d’angle \(\displaystyle\frac{\theta}{2}\) avec l’axe des abscisses.
Exercice 19 · ★★★★ · 🟠 🔴 · Déterminant de Vandermonde (type Mines)
Soient \(a, b, c \in \mathbb{R}\). On considère la matrice de Vandermonde :
\(V = \begin{pmatrix} 1 & a & a^2 \\ 1 & b & b^2 \\ 1 & c & c^2 \end{pmatrix}\)a) Calculer \(\det(V)\). b) En déduire une CNS d’inversibilité de \(V\).
Voir la correction
a) Effectuons les opérations \(C_2 \leftarrow C_2 – aC_1\) puis \(C_3 \leftarrow C_3 – a^2 C_1\) :
\(\det(V) = \begin{vmatrix} 1 & 0 & 0 \\ 1 & b-a & b^2-a^2 \\ 1 & c-a & c^2-a^2 \end{vmatrix}\)En factorisant \(b^2 – a^2 = (b-a)(b+a)\) et \(c^2 – a^2 = (c-a)(c+a)\), on développe selon la première ligne :
\(\det(V) = \begin{vmatrix} b-a & (b-a)(b+a) \\ c-a & (c-a)(c+a) \end{vmatrix} = (b-a)(c-a)\begin{vmatrix} 1 & b+a \\ 1 & c+a \end{vmatrix}\) \(= (b-a)(c-a)(c+a-b-a) = (b-a)(c-a)(c-b)\)Résultat : \(\det(V) = (b-a)(c-a)(c-b)\)
b) \(V\) est inversible \(\iff \det(V) \neq 0 \iff a, b, c\) sont deux à deux distincts.
Remarque : ce résultat se généralise en dimension \(n\). La matrice de Vandermonde \(V(x_1, \ldots, x_n) = \left(x_i^{j-1}\right)_{1 \leq i,j \leq n}\) a pour déterminant :
\(\det V(x_1, \ldots, x_n) = \displaystyle\prod_{1 \leq i \lt j \leq n}(x_j – x_i)\)Elle intervient en interpolation polynomiale (unicité du polynôme interpolateur de Lagrange).
Exercice 20 · ★★★★ · 🟠 🔴 · Cayley-Hamilton en dimension 2 (type ENS)
Soit \(A \in \mathcal{M}_2(K)\). On pose \(s = \mathrm{tr}(A)\) et \(d = \det(A)\).
a) Montrer que \(A^2 – sA + dI_2 = 0\).
b) En déduire que si \(d \neq 0\), alors \(A\) est inversible et exprimer \(A^{-1}\) en fonction de \(A\), \(s\) et \(d\).
c) Application : soit \(B = \begin{pmatrix} 3 & 1 \\ 0 & 2 \end{pmatrix}\). Vérifier a), calculer \(B^{-1}\), puis exprimer \(B^n\) pour tout \(n \in \mathbb{N}\).
Voir la correction
a) Posons \(A = \begin{pmatrix} a & b \\ c & e \end{pmatrix}\), avec \(s = a + e\) et \(d = ae – bc\).
Calculons \(A^2 – sA\) coefficient par coefficient :
- Coefficient \((1,1)\) : \(a^2 + bc – a(a+e) = bc – ae = -d\)
- Coefficient \((1,2)\) : \(ab + be – b(a+e) = 0\)
- Coefficient \((2,1)\) : \(ca + ec – c(a+e) = 0\)
- Coefficient \((2,2)\) : \(cb + e^2 – e(a+e) = bc – ae = -d\)
Donc \(A^2 – sA = -dI_2\), soit \(A^2 – sA + dI_2 = 0\). ∎
b) Si \(d \neq 0\), on réécrit : \(A(sI_2 – A) = dI_2\), d’où :
\(A^{-1} = \displaystyle\frac{1}{d}(sI_2 – A) = \displaystyle\frac{1}{d}\begin{pmatrix} e & -b \\ -c & a \end{pmatrix}\)On retrouve la formule classique de l’inverse d’une matrice 2×2.
c) Application avec \(B = \begin{pmatrix} 3 & 1 \\ 0 & 2 \end{pmatrix}\).
\(s = \mathrm{tr}(B) = 5\), \(d = \det(B) = 6\).
Vérification : \(B^2 = \begin{pmatrix} 9 & 5 \\ 0 & 4 \end{pmatrix}\), et \(B^2 – 5B + 6I_2 = \begin{pmatrix} 9-15+6 & 5-5+0 \\ 0 & 4-10+6 \end{pmatrix} = 0\) ✓.
\(B^{-1} = \displaystyle\frac{1}{6}\begin{pmatrix} 2 & -1 \\ 0 & 3 \end{pmatrix}\)Calcul de \(B^n\) : de \(B^2 = 5B – 6I_2\), posons \(B^n = \alpha_n B + \beta_n I_2\) par récurrence.
Initialisation : \(\alpha_0 = 0, \beta_0 = 1\) (car \(B^0 = I_2\)) et \(\alpha_1 = 1, \beta_1 = 0\).
Hérédité : \(B^{n+1} = B \cdot B^n = \alpha_n B^2 + \beta_n B = \alpha_n(5B – 6I_2) + \beta_n B = (5\alpha_n + \beta_n)B – 6\alpha_n I_2\).
D’où le système de récurrence : \(\alpha_{n+1} = 5\alpha_n + \beta_n\) et \(\beta_{n+1} = -6\alpha_n\).
En substituant : \(\alpha_{n+1} = 5\alpha_n – 6\alpha_{n-1}\). L’équation caractéristique \(r^2 – 5r + 6 = 0\) donne \(r = 2\) ou \(r = 3\) (les valeurs propres de \(B\)).
Avec les conditions initiales : \(\alpha_n = 3^n – 2^n\) et \(\beta_n = 3 \cdot 2^n – 2 \cdot 3^n\).
Résultat :
\(B^n = (3^n – 2^n)B + (3 \cdot 2^n – 2 \cdot 3^n)I_2 = \begin{pmatrix} 3^n & 3^n – 2^n \\ 0 & 2^n \end{pmatrix}\)Vérification : \(n = 2\) donne \(\begin{pmatrix} 9 & 5 \\ 0 & 4 \end{pmatrix} = B^2\) ✓.
Exercice 21 · ★★★★ · 🟠 🔴 · Système paramétré et rang (type Centrale)
Soit \(A(m) = \begin{pmatrix} 1 & m & 1 \\ m & 1 & m \\ 2 & m & m \end{pmatrix}\) et \(B = \begin{pmatrix} 1 \\ 1 \\ 1 \end{pmatrix}\).
a) Calculer \(\det(A(m))\).
b) Déterminer \(\mathrm{rg}(A(m))\) selon les valeurs de \(m\).
c) Résoudre le système \(A(m)X = B\) selon les valeurs de \(m\).
Voir la correction
a) Développons selon la première ligne :
\(\det(A(m)) = 1 \cdot (m – m^2) – m \cdot (m^2 – 2m) + 1 \cdot (m^2 – 2)\) \(= m – m^2 – m^3 + 2m^2 + m^2 – 2 = -m^3 + 2m^2 + m – 2\)On factorise : \(m = 1\) est racine. Division euclidienne :
\(-m^3 + 2m^2 + m – 2 = -(m-1)(m^2 – m – 2) = -(m-1)(m-2)(m+1)\)Résultat : \(\det(A(m)) = -(m-1)(m-2)(m+1)\)
b)
- Si \(m \notin \{-1, 1, 2\}\) : \(\det(A(m)) \neq 0\), donc \(\mathrm{rg}(A(m)) = 3\).
- Si \(m = 1\) : \(A(1) = \begin{pmatrix} 1 & 1 & 1 \\ 1 & 1 & 1 \\ 2 & 1 & 1 \end{pmatrix}\). \(L_1 = L_2\) ; après suppression, on a \(\begin{pmatrix} 1 & 1 & 1 \\ 2 & 1 & 1 \end{pmatrix}\) de rang 2.
- Si \(m = -1\) : \(A(-1) = \begin{pmatrix} 1 & -1 & 1 \\ -1 & 1 & -1 \\ 2 & -1 & -1 \end{pmatrix}\). \(L_2 = -L_1\) ; le mineur 2×2 des lignes 1, 3 et colonnes 1, 2 vaut \(-1+2 = 1 \neq 0\) : \(\mathrm{rg} = 2\).
- Si \(m = 2\) : \(A(2) = \begin{pmatrix} 1 & 2 & 1 \\ 2 & 1 & 2 \\ 2 & 2 & 2 \end{pmatrix}\). \(L_2 – 2L_1 = (0,-3,0)\) ; \(L_3 – 2L_1 = (0,-2,0)\) ; \(\mathrm{rg} = 2\).
c) Résolution de \(A(m)X = B\).
Si \(m \notin \{-1,1,2\}\) : le système est de Cramer → solution unique (que l’on peut obtenir par Cramer ou par Gauss).
Si \(m = 1\) : matrice augmentée :
\(\left(\begin{array}{ccc|c} 1 & 1 & 1 & 1 \\ 1 & 1 & 1 & 1 \\ 2 & 1 & 1 & 1 \end{array}\right) \overset{L_2 – L_1,\; L_3 – 2L_1}{\longrightarrow} \left(\begin{array}{ccc|c} 1 & 1 & 1 & 1 \\ 0 & 0 & 0 & 0 \\ 0 & -1 & -1 & -1 \end{array}\right)\)\(L_3\) donne \(y + z = 1\). \(L_1\) donne \(x + y + z = 1\), soit \(x = 0\). En posant \(z = t\) :
\(\mathcal{S} = \{(0,\, 1-t,\, t) \mid t \in \mathbb{R}\}\) : infinité de solutions (espace affine de dimension 1).
Si \(m = -1\) :
\(\left(\begin{array}{ccc|c} 1 & -1 & 1 & 1 \\ -1 & 1 & -1 & 1 \\ 2 & -1 & -1 & 1 \end{array}\right) \overset{L_2 + L_1}{\longrightarrow} \left(\begin{array}{ccc|c} 1 & -1 & 1 & 1 \\ 0 & 0 & 0 & 2 \\ 2 & -1 & -1 & 1 \end{array}\right)\)\(L_2\) donne \(0 = 2\) : contradiction → système incompatible.
Si \(m = 2\) :
\(\left(\begin{array}{ccc|c} 1 & 2 & 1 & 1 \\ 0 & -3 & 0 & -1 \\ 0 & -2 & 0 & -1 \end{array}\right) \overset{L_3 \leftarrow L_3 – \frac{2}{3}L_2}{\longrightarrow} \left(\begin{array}{ccc|c} 1 & 2 & 1 & 1 \\ 0 & -3 & 0 & -1 \\ 0 & 0 & 0 & -\displaystyle\frac{1}{3} \end{array}\right)\)\(L_3\) donne \(0 = -\displaystyle\frac{1}{3}\) : contradiction → système incompatible.
Bilan :
| Valeur de m | Rang | Nature du système |
|---|---|---|
| \(m \notin \{-1, 1, 2\}\) | 3 | Solution unique (Cramer) |
| \(m = 1\) | 2 | Infinité de solutions |
| \(m = -1\) | 2 | Incompatible |
| \(m = 2\) | 2 | Incompatible |
Exercice 22 · ★★★★★ · 🔴 · Tout hyperplan de \(\mathcal{M}_n(\mathbb{C})\) rencontre \(GL_n(\mathbb{C})\) (oral X)
Soit \(n \geq 2\) et \(H\) un hyperplan de \(\mathcal{M}_n(\mathbb{C})\) (sous-espace vectoriel de dimension \(n^2 – 1\)). Montrer que \(H \cap GL_n(\mathbb{C}) \neq \emptyset\), autrement dit qu’il existe une matrice inversible dans \(H\).
Voir la correction
Idée clé. On raisonne par l’absurde. Si toute matrice de \(H\) est non inversible, alors \(\det\) s’annule identiquement sur \(H\), et on va montrer que cela force \(\det \equiv 0\) sur \(\mathcal{M}_n(\mathbb{C})\) tout entier, ce qui est absurde.
Étape 1 : caractérisation d’un hyperplan par une forme linéaire.
Un hyperplan \(H\) de \(\mathcal{M}_n(\mathbb{C})\) est le noyau d’une forme linéaire non nulle \(\varphi : \mathcal{M}_n(\mathbb{C}) \to \mathbb{C}\). On sait par ailleurs qu’il existe une matrice \(A_0 \in \mathcal{M}_n(\mathbb{C})\) telle que \(\varphi(M) = \mathrm{tr}(A_0 M)\) pour toute matrice \(M\) (la forme bilinéaire \((A, M) \mapsto \mathrm{tr}(AM)\) est non dégénérée, donc tout \(\varphi \in \mathcal{M}_n(\mathbb{C})^*\) s’écrit ainsi de manière unique).
Donc \(H = \{M \in \mathcal{M}_n(\mathbb{C}) \mid \mathrm{tr}(A_0 M) = 0\}\) avec \(A_0 \neq 0\).
Étape 2 : raisonnement par l’absurde.
Supposons que \(H \cap GL_n(\mathbb{C}) = \emptyset\), c’est-à-dire que \(\det(M) = 0\) pour tout \(M \in H\).
Distinguons deux cas selon que \(A_0\) est inversible ou non.
Cas 1 : \(A_0 \in GL_n(\mathbb{C})\). Alors \(A_0\) elle-même n’est pas dans \(H\) (car \(\mathrm{tr}(A_0 \cdot A_0^{-1}) = \mathrm{tr}(I_n) = n \neq 0\) montre que l’image de \(A_0^{-1}\) par \(\varphi\) n’est pas nulle, donc en particulier \(A_0^{-1} \notin H\), et… on a besoin d’un autre argument). Considérons la matrice \(M = A_0^{-1} J\) où \(J\) est la matrice de permutation cyclique définie par \(J e_i = e_{i+1}\) (indices modulo \(n\)). Alors :
\(\mathrm{tr}(A_0 M) = \mathrm{tr}(A_0 A_0^{-1} J) = \mathrm{tr}(J) = 0\)(la diagonale de \(J\) est nulle). Donc \(M \in H\). Or \(J \in GL_n(\mathbb{C})\) (matrice de permutation) et \(A_0^{-1} \in GL_n(\mathbb{C})\), donc \(M = A_0^{-1} J \in GL_n(\mathbb{C})\). Contradiction.
Cas 2 : \(A_0 \notin GL_n(\mathbb{C})\). Alors \(A_0\) n’est pas inversible, donc il existe \(P, Q \in GL_n(\mathbb{C})\) et un entier \(r \lt n\) (le rang de \(A_0\)) tels que \(A_0 = P J_r Q\), où \(J_r = \begin{pmatrix} I_r & 0 \\ 0 & 0 \end{pmatrix}\) est la matrice canonique de rang \(r\).
Cherchons \(M \in GL_n(\mathbb{C})\) telle que \(\mathrm{tr}(A_0 M) = 0\). Posons \(M = Q^{-1} N P^{-1}\) avec \(N\) à déterminer. Alors :
\(\mathrm{tr}(A_0 M) = \mathrm{tr}(P J_r Q \cdot Q^{-1} N P^{-1}) = \mathrm{tr}(P J_r N P^{-1}) = \mathrm{tr}(J_r N)\)La trace de \(J_r N\) vaut la somme des \(r\) premiers coefficients diagonaux de \(N\). Choisissons \(N\) diagonale avec \(N_{1,1} = 1, N_{2,2} = -1\), \(N_{i,i} = 1\) pour \(i \geq 3\). Alors \(\mathrm{tr}(J_r N) = 1 – 1 + (r – 2) = r – 2\), et pour \(r \geq 2\) on ajuste facilement en choisissant d’autres valeurs non nulles compatibles (par exemple \(N_{1,1} = r – 1, N_{2,2} = -(r-1)\), \(N_{i,i} = 1\) pour \(i \geq 3\), ce qui donne trace nulle et \(\det(N) \neq 0\)). Pour \(r = 1\), prendre \(N_{1,1} = 0\), \(N_{i,i} = 1\) pour \(i \geq 2\) ne convient pas car \(\det(N) = 0\) ; il suffit alors de prendre \(N\) non diagonale, par exemple la matrice de permutation qui échange 1 et 2, qui est inversible et dont le premier coefficient diagonal vaut 0. Dans tous les cas, on trouve \(N \in GL_n(\mathbb{C})\), donc \(M = Q^{-1} N P^{-1} \in GL_n(\mathbb{C})\) et \(\mathrm{tr}(A_0 M) = 0\).
Dans les deux cas, on exhibe donc une matrice inversible dans \(H\), contredisant l’hypothèse. ∎
L’idée à retenir. La forme bilinéaire \((A, M) \mapsto \mathrm{tr}(AM)\) est non dégénérée sur \(\mathcal{M}_n(\mathbb{C})\) : elle permet d’identifier toute forme linéaire à une matrice \(A_0\). Une fois cette représentation obtenue, on construit explicitement une matrice inversible à trace adaptée. C’est un classique des oraux X qui teste la maîtrise de la dualité en \(\mathcal{M}_n\).
Exercice 23 · ★★★★★ · 🔴 · Signe du déterminant d’une matrice annulant \(X^3 – X – 1\) (type Mines-Ponts)
Soit \(A \in \mathcal{M}_n(\mathbb{R})\) telle que \(A^3 = A + I_n\). Montrer que \(\det(A) \gt 0\).
Voir la correction
Idée clé. La relation \(A^3 = A + I_n\) signifie que \(A\) est annulée par le polynôme \(P(X) = X^3 – X – 1\). Il suffit d’étudier les racines (réelles et complexes) de \(P\) et d’exploiter que \(\det(A)\) est le produit des valeurs propres complexes de \(A\), chacune étant racine de \(P\).
Étape 1 : analyse du polynôme \(P(X) = X^3 – X – 1\).
Étudions \(P\) sur \(\mathbb{R}\). \(P'(X) = 3X^2 – 1\) s’annule en \(\pm \displaystyle\frac{1}{\sqrt{3}}\). Le maximum local vaut :
\(P\!\left(-\displaystyle\frac{1}{\sqrt{3}}\right) = -\displaystyle\frac{1}{3\sqrt{3}} + \displaystyle\frac{1}{\sqrt{3}} – 1 = \displaystyle\frac{2}{3\sqrt{3}} – 1 \lt 0\)(car \(\displaystyle\frac{2}{3\sqrt{3}} = \displaystyle\frac{2\sqrt{3}}{9} \approx 0{,}385 \lt 1\)).
Donc \(P\) admet une seule racine réelle \(\alpha\), et \(P(1) = -1 \lt 0\), \(P(2) = 5 \gt 0\) donne \(1 \lt \alpha \lt 2\) ; en particulier \(\alpha \gt 0\).
Les deux autres racines de \(P\) dans \(\mathbb{C}\) sont complexes conjuguées : notons-les \(\beta\) et \(\bar\beta\).
Étape 2 : produit des racines.
Par les relations coefficients-racines : le produit des trois racines de \(X^3 + 0 \cdot X^2 – X – 1\) vaut \(-(-1) = 1\). Donc :
\(\alpha \cdot \beta \cdot \bar\beta = 1, \quad \text{soit} \quad \alpha \cdot |\beta|^2 = 1\)Comme \(|\beta|^2 \gt 0\), on retrouve bien \(\alpha \gt 0\).
Étape 3 : valeurs propres complexes de \(A\) et calcul du déterminant.
Vue comme matrice complexe, \(A \in \mathcal{M}_n(\mathbb{C})\) admet \(n\) valeurs propres \(\lambda_1, \ldots, \lambda_n\) dans \(\mathbb{C}\) (comptées avec multiplicité, théorème de d’Alembert-Gauss appliqué au polynôme caractéristique). Chaque \(\lambda_i\) est racine de \(P\), donc \(\lambda_i \in \{\alpha, \beta, \bar\beta\}\).
Notons \(p\) le nombre de \(\lambda_i\) égaux à \(\alpha\), \(q\) le nombre de \(\lambda_i\) égaux à \(\beta\), et \(r\) le nombre de \(\lambda_i\) égaux à \(\bar\beta\). On a \(p + q + r = n\).
Comme \(A\) est à coefficients réels, son polynôme caractéristique est à coefficients réels. Les racines complexes non réelles apparaissent donc par paires conjuguées : \(q = r\).
Alors :
\(\det(A) = \displaystyle\prod_{i=1}^{n} \lambda_i = \alpha^p \cdot \beta^q \cdot \bar\beta^{q} = \alpha^p \cdot (\beta \bar\beta)^q = \alpha^p \cdot |\beta|^{2q}\)Or \(\alpha \gt 0\) et \(|\beta|^{2q} \gt 0\) (car \(\beta \neq 0\) : sinon \(0\) serait racine de \(P\), or \(P(0) = -1 \neq 0\)).
Donc \(\det(A) \gt 0\). ∎
Technique de concours. L’argument clé est : une matrice réelle a des valeurs propres complexes qui apparaissent par paires conjuguées, donc leur contribution au déterminant est toujours un module au carré, strictement positif. Ne reste que le signe des racines réelles du polynôme annulateur. Ici, une seule racine réelle et elle est positive, donc le déterminant est positif. Variante classique : même exercice avec \(A^3 = A – I_n\) (racine réelle négative, signe de \(\det(A)\) dépend alors de la parité de \(p\)).
Exercice 24 · ★★★★★+ · 🔴 · \(GL_n(\mathbb{C})\) est connexe par arcs (oral X/ENS)
Montrer que le groupe linéaire \(GL_n(\mathbb{C})\) est connexe par arcs : pour toutes matrices \(A, B \in GL_n(\mathbb{C})\), il existe un chemin continu \(\gamma : [0, 1] \to GL_n(\mathbb{C})\) tel que \(\gamma(0) = A\) et \(\gamma(1) = B\).
Voir la correction
Idée clé. Le chemin linéaire naïf \(t \mapsto (1-t)A + tB\) peut sortir de \(GL_n(\mathbb{C})\) (annuler le déterminant). On contourne l’obstacle en passant par un chemin complexe : on prolonge le paramètre \(t\) dans \(\mathbb{C}\) tout entier, et on exploite que \(\mathbb{C}\) privé d’un nombre fini de points reste connexe par arcs.
Étape 1 : le chemin complexe.
Pour \(z \in \mathbb{C}\), posons \(M(z) = (1 – z) A + z B\). Alors \(M : \mathbb{C} \to \mathcal{M}_n(\mathbb{C})\) est une application affine (à coefficients polynomiaux de degré \(\leq 1\) en \(z\)).
Considérons \(P(z) = \det(M(z))\). C’est un polynôme en \(z\) de degré au plus \(n\) (développement du déterminant : chaque coefficient de \(M(z)\) est affine en \(z\), et le déterminant est multilinéaire de degré \(n\) en les coefficients).
Étape 2 : \(P\) n’est pas le polynôme nul.
On a \(P(0) = \det(A) \neq 0\) (car \(A \in GL_n(\mathbb{C})\)). Donc \(P\) est un polynôme non nul, et par suite il admet au plus \(n\) racines dans \(\mathbb{C}\). Notons \(\{z_1, \ldots, z_k\}\) ces racines (avec \(k \leq n\)).
Étape 3 : \(\mathbb{C}\) privé d’un nombre fini de points est connexe par arcs.
L’ensemble \(\mathbb{C} \setminus \{z_1, \ldots, z_k\}\) est connexe par arcs (c’est un résultat classique : le plan privé d’un ensemble fini reste connexe par arcs, car on peut toujours contourner chaque point par un petit détour).
Comme \(0\) et \(1\) ne sont pas racines de \(P\) (car \(P(0) = \det(A) \neq 0\) et \(P(1) = \det(B) \neq 0\)), il existe un chemin continu \(\tilde\gamma : [0, 1] \to \mathbb{C} \setminus \{z_1, \ldots, z_k\}\) tel que \(\tilde\gamma(0) = 0\) et \(\tilde\gamma(1) = 1\).
Étape 4 : conclusion.
Définissons \(\gamma : [0, 1] \to \mathcal{M}_n(\mathbb{C})\) par \(\gamma(t) = M(\tilde\gamma(t)) = (1 – \tilde\gamma(t)) A + \tilde\gamma(t) B\).
\(\gamma\) est continue (composée d’applications continues). Pour tout \(t \in [0, 1]\), \(\det(\gamma(t)) = P(\tilde\gamma(t)) \neq 0\) (car \(\tilde\gamma(t) \notin \{z_1, \ldots, z_k\}\)), donc \(\gamma(t) \in GL_n(\mathbb{C})\).
Enfin \(\gamma(0) = M(0) = A\) et \(\gamma(1) = M(1) = B\). Le chemin \(\gamma\) convient. ∎
Pourquoi ça marche en \(\mathbb{C}\) et pas en \(\mathbb{R}\). Le même argument tenté sur \(\mathbb{R}\) échoue : \(\mathbb{R}\) privé d’un nombre fini de points n’est pas connexe par arcs (c’est une union d’intervalles disjoints). D’ailleurs \(GL_n(\mathbb{R})\) a deux composantes connexes par arcs : les matrices de déterminant \(\gt 0\) et celles de déterminant \(\lt 0\). Le passage par \(\mathbb{C}\) est donc essentiel : le plan complexe étant de dimension réelle 2, il suffit d’un détour 2D pour contourner les racines. C’est un exemple frappant où l’algèbre (ici le groupe linéaire complexe) hérite de la topologie de \(\mathbb{C}\).
V. Erreurs fréquentes et pièges classiques
Voici les erreurs les plus sanctionnées en DS et en concours. Chaque piège est présenté avec une copie fautive commentée.
Piège 1 : Fausse commutativité du produit
❌ Copie fautive : « On a \(AB = BA\) (par commutativité), donc… »
Diagnostic : le produit matriciel n’est pas commutatif en général. L’exercice 8 montre même que \(AB = 0\) n’implique pas \(BA = 0\).
✅ Toujours calculer \(AB\) et \(BA\) séparément. Ne supposer \(AB = BA\) que si c’est démontré (ex. : \(B = \lambda I_n\)).
Piège 2 : Inverse du produit dans le mauvais ordre
❌ Copie fautive : « \((AB)^{-1} = A^{-1}B^{-1}\) »
Diagnostic : l’inversion renverse l’ordre des facteurs, exactement comme la transposée.
✅ \((AB)^{-1} = B^{-1}A^{-1}\). Mnémotechnique : pour enfiler chaussettes puis chaussures, on retire d’abord les chaussures.
Piège 3 : Sarrus en dimension \(\geq 4\)
❌ Copie fautive : « Par la règle de Sarrus, \(\det(A) = \ldots\) » pour \(A \in \mathcal{M}_4(\mathbb{R})\).
Diagnostic : la règle de Sarrus ne fonctionne qu’en dimension 3. En dimension \(\geq 4\), il faut utiliser le développement par cofacteurs.
✅ Choisir la ligne ou colonne contenant le plus de zéros, puis développer par cofacteurs.
Piège 4 : Simplification par une matrice non inversible
❌ Copie fautive : « De \(AB = AC\), on déduit \(B = C\) en simplifiant par \(A\). »
Diagnostic : on ne peut simplifier que si \(A\) est inversible. Contre-exemple : \(A = \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix}\), \(B = I_2\), \(C = \begin{pmatrix} 1 & 0 \\ 0 & 2 \end{pmatrix}\) → \(AB = AC\) mais \(B \neq C\).
✅ Écrire \(A(B – C) = 0\). Si \(A\) est inversible, alors \(B = C\). Sinon, on ne peut rien conclure.
Piège 5 : Binôme de Newton matriciel sans vérifier la commutativité
❌ Copie fautive : « \((A + B)^2 = A^2 + 2AB + B^2\) »
Diagnostic : le développement correct est \((A+B)^2 = A^2 + AB + BA + B^2\). On obtient \(A^2 + 2AB + B^2\) uniquement si \(AB = BA\).
✅ Toujours vérifier la commutativité de \(A\) et \(B\) avant d’appliquer le binôme de Newton. Dans l’exercice 15, on a pu l’utiliser car \(I_n\) et \(N\) commutent toujours.
VI. Questions fréquentes
Comment calculer l'inverse d'une matrice ?
La méthode dépend de la taille de la matrice :
- Vérifier que \(\det(A) \neq 0\) (sinon la matrice n’est pas inversible).
- En dimension 2 : appliquer la formule directe \(A^{-1} = \displaystyle\frac{1}{\det(A)}\begin{pmatrix} d & -b \\ -c & a \end{pmatrix}\).
- En dimension 3 et plus : utiliser la méthode de Gauss-Jordan (échelonner \((A \mid I_n)\) jusqu’à obtenir \((I_n \mid A^{-1})\)).
- Alternative : la comatrice \(A^{-1} = \displaystyle\frac{1}{\det(A)} \, \mathrm{Com}(A)^T\) (via la matrice adjointe).
Peut-on appliquer la règle de Sarrus à une matrice 4×4 ?
Non. La règle de Sarrus est strictement réservée aux matrices \(3 \times 3\). En dimension \(n \geq 4\), on utilise le développement par rapport à une ligne ou une colonne (cofacteurs). L’astuce est de choisir la ligne ou colonne contenant le plus de zéros pour minimiser les calculs.
Quelle est la différence entre matrice inversible et matrice de rang maximal ?
Pour une matrice carrée \(A \in \mathcal{M}_n(K)\), ces deux notions sont équivalentes. Les quatre propriétés suivantes sont toutes équivalentes :
- \(A\) est inversible
- \(\mathrm{rg}(A) = n\) (rang maximal)
- \(\det(A) \neq 0\)
- \(\ker(A) = \{0\}\)
Pour une matrice rectangulaire, seul le rang a un sens (pas l’inversibilité au sens classique). Voir la page matrice inversible pour le détail des critères.
Comment calculer la puissance n-ième d'une matrice efficacement ?
Quatre techniques selon la structure de la matrice :
- Matrice diagonale : \(D^n = \mathrm{diag}(d_1^n, \ldots, d_p^n)\) (exercice 5).
- Décomposition nilpotente : si \(A = \alpha I + N\) avec \(N\) nilpotente, appliquer le binôme de Newton (exercice 15).
- Diagonalisation : si \(A = PDP^{-1}\), alors \(A^n = PD^nP^{-1}\) (voir exercices de diagonalisation).
- Cayley-Hamilton (dim 2) : \(A^n = \alpha_n A + \beta_n I\) via une récurrence linéaire (exercices 7 et 20).
VII. Pour aller plus loin
Tu as travaillé les 24 exercices de cette page. Pour consolider ta maîtrise de l’algèbre linéaire, voici les ressources complémentaires :
- 📖 Matrices en maths : cours complet, le cours de référence du cocon
- → Multiplication de matrices : règle et méthode
- → Inverse d’une matrice : méthode complète
- → Déterminant d’une matrice : calcul et propriétés
- → Puissance d’une matrice : calcul de \(A^n\)
- ✏️ Exercices corrigés : espaces vectoriels
- ✏️ Exercices de diagonalisation et réduction
- ✏️ Exercices corrigés : applications linéaires