Voici 20 exercices de diagonalisation et réduction des endomorphismes, classés par difficulté croissante, de l’application directe aux problèmes type concours X/Mines/Centrale. Chaque exercice est corrigé pas à pas. Tu trouveras des diagonalisations 2×2 et 3×3, des études avec paramètre, de la trigonalisation, du polynôme minimal, des endomorphismes nilpotents et symétriques, et des applications à l’exponentielle de matrice et aux systèmes différentiels. Programme MPSI/PCSI/MP/PC/PSI — conforme 2025-2026.

I. Rappel des résultats essentiels

Avant de te lancer dans les exercices, voici les résultats fondamentaux à connaître. Pour le cours complet, consulte la page diagonalisation d’une matrice.

Polynôme caractéristique et valeurs propres

Soit \(A \in \mathcal{M}_n(\mathbb{K})\). Le polynôme caractéristique est \(\chi_A(\lambda) = \det(A – \lambda I_n)\). Les valeurs propres de \(A\) sont les racines de \(\chi_A\). Pour chaque valeur propre \(\lambda\), le sous-espace propre est \(E_\lambda(A) = \ker(A – \lambda I_n)\).

Critère de diagonalisabilité

\(A\) est diagonalisable si et seulement si, pour chaque valeur propre \(\lambda\) :

\(\dim E_\lambda(A) = m_\lambda\)

où \(m_\lambda\) désigne la multiplicité algébrique de \(\lambda\) (son ordre en tant que racine de \(\chi_A\)). Si \(A\) admet \(n\) valeurs propres distinctes, elle est automatiquement diagonalisable.

Diagonalisation et polynôme annulateur

\(A\) est diagonalisable si et seulement si son polynôme minimal \(\mu_A\) est scindé à racines simples. En particulier, si \(P(A) = 0\) pour un polynôme \(P\) scindé à racines simples dans \(\mathbb{K}\), alors \(A\) est diagonalisable sur \(\mathbb{K}\).

Formules clés

  • Changement de base : \(A = PDP^{-1}\) où \(P\) est la matrice de passage (colonnes = vecteurs propres) et \(D = \mathrm{diag}(\lambda_1, \ldots, \lambda_n)\).
  • Puissance : \(A^k = PD^kP^{-1}\).
  • Exponentielle : \(\exp(A) = P\,\mathrm{diag}(e^{\lambda_1}, \ldots, e^{\lambda_n})\,P^{-1}\).
  • Théorème spectral : toute matrice symétrique réelle est diagonalisable dans une base orthonormée (en savoir plus).

II. Exercices d’application directe (★ à ★★)

Ces exercices testent ta maîtrise des définitions et des techniques de base. Si tu bloques ici, revois le cours sur la diagonalisation et la page valeurs propres et vecteurs propres.

Exercice 1 — Diagonalisation d’une matrice 2×2
★ · Incontournable · ⏱ 10 min

Diagonaliser la matrice \(A = \begin{pmatrix} 4 & 1 \\ 2 & 3 \end{pmatrix}\).

Voir la correction

Polynôme caractéristique :

\(\chi_A(\lambda) = (4 – \lambda)(3 – \lambda) – 2 = \lambda^2 – 7\lambda + 10 = (\lambda – 2)(\lambda – 5)\)

Les valeurs propres sont \(\lambda_1 = 2\) et \(\lambda_2 = 5\), toutes deux simples : \(A\) est diagonalisable.

Sous-espaces propres :

\(E_2 = \ker(A – 2I) = \ker\begin{pmatrix} 2 & 1 \\ 2 & 1 \end{pmatrix} = \mathrm{Vect}\begin{pmatrix} 1 \\ -2 \end{pmatrix}\) \(E_5 = \ker(A – 5I) = \ker\begin{pmatrix} -1 & 1 \\ 2 & -2 \end{pmatrix} = \mathrm{Vect}\begin{pmatrix} 1 \\ 1 \end{pmatrix}\)

Conclusion : avec \(P = \begin{pmatrix} 1 & 1 \\ -2 & 1 \end{pmatrix}\) et \(D = \begin{pmatrix} 2 & 0 \\ 0 & 5 \end{pmatrix}\), on a \(A = PDP^{-1}\).


Exercice 2 — Diagonalisation dans une base orthonormée
★★ · ⏱ 15 min

Soit \(A = \begin{pmatrix} 3 & 1 \\ 1 & 3 \end{pmatrix}\). Diagonaliser \(A\) dans une base orthonormée de \(\mathbb{R}^2\).

Voir la correction

\(A\) est symétrique réelle, donc diagonalisable dans une base orthonormée (théorème spectral).

\(\chi_A(\lambda) = (3 – \lambda)^2 – 1 = \lambda^2 – 6\lambda + 8 = (\lambda – 2)(\lambda – 4)\)

Valeurs propres : \(\lambda_1 = 2\), \(\lambda_2 = 4\).

\(E_2 = \mathrm{Vect}\begin{pmatrix} 1 \\ -1 \end{pmatrix}\), \(E_4 = \mathrm{Vect}\begin{pmatrix} 1 \\ 1 \end{pmatrix}\).

On normalise : \(u_1 = \displaystyle\frac{1}{\sqrt{2}}\begin{pmatrix} 1 \\ -1 \end{pmatrix}\), \(u_2 = \displaystyle\frac{1}{\sqrt{2}}\begin{pmatrix} 1 \\ 1 \end{pmatrix}\).

On vérifie \(u_1 \cdot u_2 = 0\). Avec \(Q = \displaystyle\frac{1}{\sqrt{2}}\begin{pmatrix} 1 & 1 \\ -1 & 1 \end{pmatrix}\), on a \(A = Q\,\mathrm{diag}(2,4)\,Q^\top\).


Exercice 3 — Diagonalisation d’une matrice 3×3
★★ · Incontournable · ⏱ 20 min

Diagonaliser \(A = \begin{pmatrix} 2 & 0 & 1 \\ 0 & 3 & 0 \\ 1 & 0 & 2 \end{pmatrix}\).

Voir la correction

Polynôme caractéristique. On développe par la deuxième ligne :

\(\chi_A(\lambda) = (3 – \lambda)\begin{vmatrix} 2 – \lambda & 1 \\ 1 & 2 – \lambda \end{vmatrix} = (3 – \lambda)\bigl[(2 – \lambda)^2 – 1\bigr] = (3 – \lambda)(\lambda – 1)(\lambda – 3) = -(3 – \lambda)^2(\lambda – 1)\)

Valeurs propres : \(\lambda_1 = 1\) (simple) et \(\lambda_2 = 3\) (double).

Sous-espace propre \(E_1\) :

\(A – I = \begin{pmatrix} 1 & 0 & 1 \\ 0 & 2 & 0 \\ 1 & 0 & 1 \end{pmatrix}\), rang 2 \(\Rightarrow \dim E_1 = 1\). On trouve \(E_1 = \mathrm{Vect}\begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix}\).

Sous-espace propre \(E_3\) :

\(A – 3I = \begin{pmatrix} -1 & 0 & 1 \\ 0 & 0 & 0 \\ 1 & 0 & -1 \end{pmatrix}\), rang 1 \(\Rightarrow \dim E_3 = 2 = m_3\).

\(E_3 = \mathrm{Vect}\!\left(\begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix},\, \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}\right)\)

Puisque \(\dim E_1 + \dim E_3 = 3 = n\), \(A\) est diagonalisable.

\(P = \begin{pmatrix} 1 & 1 & 0 \\ 0 & 0 & 1 \\ -1 & 1 & 0 \end{pmatrix}\), \(D = \mathrm{diag}(1, 3, 3)\), \(A = PDP^{-1}\).

🎁 EN BONUS

20 exercices de diagonalisation corrigés en PDF

Tous les exercices de cette page en un seul document, avec corrections détaillées et astuces de rédaction concours.

📄 Télécharger le PDF gratuit

Idéal pour réviser en khôlle ou avant un DS de maths.


Exercice 4 — Matrice non diagonalisable
★★ · ⏱ 10 min

Montrer que \(A = \begin{pmatrix} 2 & 1 \\ 0 & 2 \end{pmatrix}\) n’est pas diagonalisable.

Voir la correction

\(\chi_A(\lambda) = (2 – \lambda)^2\). Unique valeur propre : \(\lambda = 2\), de multiplicité algébrique 2.

\(A – 2I = \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}\), de rang 1. Donc \(\dim E_2 = 1 \neq 2\).

La multiplicité géométrique est strictement inférieure à la multiplicité algébrique : \(A\) n’est pas diagonalisable.

Autre argument : si \(A\) était diagonalisable avec la seule valeur propre 2, on aurait \(A = P\,\mathrm{diag}(2,2)\,P^{-1} = 2I\). Or \(A \neq 2I\). Contradiction.


Exercice 5 — Calcul de \(A^n\) par diagonalisation
★★ · Incontournable · ⏱ 15 min

En utilisant la diagonalisation de l’exercice 1, calculer \(A^n\) pour \(A = \begin{pmatrix} 4 & 1 \\ 2 & 3 \end{pmatrix}\) et \(n \in \mathbb{N}\).

Voir la correction

D’après l’exercice 1 : \(A = PDP^{-1}\) avec \(P = \begin{pmatrix} 1 & 1 \\ -2 & 1 \end{pmatrix}\) et \(D = \mathrm{diag}(2,5)\).

\(\det P = 1 + 2 = 3\), donc \(P^{-1} = \displaystyle\frac{1}{3}\begin{pmatrix} 1 & -1 \\ 2 & 1 \end{pmatrix}\).

\(A^n = P D^n P^{-1} = \displaystyle\frac{1}{3}\begin{pmatrix} 1 & 1 \\ -2 & 1 \end{pmatrix}\begin{pmatrix} 2^n & 0 \\ 0 & 5^n \end{pmatrix}\begin{pmatrix} 1 & -1 \\ 2 & 1 \end{pmatrix}\)

En effectuant le produit :

\(A^n = \displaystyle\frac{1}{3}\begin{pmatrix} 2^n + 2 \cdot 5^n & -2^n + 5^n \\ -2^{n+1} + 2 \cdot 5^n & 2^{n+1} + 5^n \end{pmatrix}\)

Vérification \(n = 1\) : \(\displaystyle\frac{1}{3}\begin{pmatrix} 12 & 3 \\ 6 & 9 \end{pmatrix} = \begin{pmatrix} 4 & 1 \\ 2 & 3 \end{pmatrix} = A\). ✓


Exercice 6 — Polynôme caractéristique et diagonalisabilité
★★ · ⏱ 15 min

Soit \(A = \begin{pmatrix} 1 & 0 & 1 \\ 0 & 2 & 0 \\ 1 & 0 & 1 \end{pmatrix}\). Calculer \(\chi_A\), les valeurs propres et les sous-espaces propres. \(A\) est-elle diagonalisable ?

Voir la correction

On développe par la deuxième colonne :

\(\chi_A(\lambda) = (2 – \lambda)\begin{vmatrix} 1 – \lambda & 1 \\ 1 & 1 – \lambda \end{vmatrix} = (2 – \lambda)\bigl[(1 – \lambda)^2 – 1\bigr] = (2 – \lambda)\,\lambda\,(\lambda – 2) = -\lambda(\lambda – 2)^2\)

Valeurs propres : \(\lambda_1 = 0\) (simple), \(\lambda_2 = 2\) (double).

\(E_0 = \ker A\) : \(x + z = 0\) et \(2y = 0\), donc \(E_0 = \mathrm{Vect}(1, 0, -1)^\top\), de dimension 1. ✓

\(E_2 = \ker(A – 2I) = \ker\begin{pmatrix} -1 & 0 & 1 \\ 0 & 0 & 0 \\ 1 & 0 & -1 \end{pmatrix}\) : rang 1, donc \(\dim E_2 = 2 = m_2\).

\(E_2 = \mathrm{Vect}\!\left(\begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix},\,\begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}\right)\)

\(\dim E_0 + \dim E_2 = 3\) : \(A\) est diagonalisable.


Exercice 7 — Critère de diagonalisabilité (valeur propre double)
★★ · Incontournable · ⏱ 15 min

Soit \(A = \begin{pmatrix} 5 & 0 & 0 \\ 0 & 3 & 2 \\ 0 & 2 & 3 \end{pmatrix}\). Diagonaliser \(A\).

Voir la correction

Matrice triangulaire par blocs : \(\chi_A(\lambda) = (5 – \lambda)\bigl[(3 – \lambda)^2 – 4\bigr] = (5 – \lambda)(\lambda – 1)(\lambda – 5) = -(5 – \lambda)^2(\lambda – 1)\)

Valeurs propres : \(\lambda_1 = 1\) (simple) et \(\lambda_2 = 5\) (double).

\(E_1 = \ker(A – I)\) : \(4x = 0\), \(2y + 2z = 0\). Donc \(E_1 = \mathrm{Vect}(0, 1, -1)^\top\).

\(E_5 = \ker(A – 5I) = \ker\begin{pmatrix} 0 & 0 & 0 \\ 0 & -2 & 2 \\ 0 & 2 & -2 \end{pmatrix}\) : rang 1, \(\dim E_5 = 2\).

\(E_5 = \mathrm{Vect}\!\left(\begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix},\,\begin{pmatrix} 0 \\ 1 \\ 1 \end{pmatrix}\right)\)

\(\dim E_1 + \dim E_5 = 3\) : \(A\) est diagonalisable.

\(P = \begin{pmatrix} 0 & 1 & 0 \\ 1 & 0 & 1 \\ -1 & 0 & 1 \end{pmatrix}\), \(D = \mathrm{diag}(1, 5, 5)\).


III. Exercices d’approfondissement (★★★)

Ces exercices requièrent une vision plus large : paramètre, trigonalisation, polynôme minimal, endomorphismes particuliers. C’est le cœur de l’entraînement CPGE.

Exercice 8 — Diagonalisation avec paramètre
★★★ · Incontournable · ⏱ 25 min

Soit \(a \in \mathbb{R}\) et \(M(a) = \begin{pmatrix} 2 & 1 & 0 \\ 0 & a & 0 \\ 0 & 1 & 3 \end{pmatrix}\).

  1. Calculer \(\chi_{M(a)}\) et déterminer les valeurs propres en fonction de \(a\).
  2. Pour quelles valeurs de \(a\) la matrice \(M(a)\) est-elle diagonalisable ?
Voir la correction

1. On développe par la deuxième ligne :

\(\chi_{M(a)}(\lambda) = (a – \lambda)\begin{vmatrix} 2 – \lambda & 0 \\ 0 & 3 – \lambda \end{vmatrix} = (a – \lambda)(2 – \lambda)(3 – \lambda)\)

Valeurs propres : \(a\), \(2\), \(3\).

2. On distingue trois cas :

Cas \(a \notin \{2, 3\}\) : trois valeurs propres distinctes \(\Rightarrow\) \(M(a)\) est diagonalisable.

Cas \(a = 2\) : valeurs propres 2 (double) et 3. On calcule \(M(2) – 2I = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 0 \\ 0 & 1 & 1 \end{pmatrix}\) de rang 2, donc \(\dim E_2 = 1 \neq 2\). Non diagonalisable.

Cas \(a = 3\) : valeurs propres 2 et 3 (double). On calcule \(M(3) – 3I = \begin{pmatrix} -1 & 1 & 0 \\ 0 & 0 & 0 \\ 0 & 1 & 0 \end{pmatrix}\) de rang 2, donc \(\dim E_3 = 1 \neq 2\). Non diagonalisable.

Conclusion : \(M(a)\) est diagonalisable si et seulement si \(a \notin \{2,\, 3\}\).


Exercice 9 — Trigonalisation (forme de Jordan)
★★★ · ⏱ 25 min

Soit \(B = \begin{pmatrix} 2 & 1 & 0 \\ 0 & 2 & 0 \\ 1 & 0 & 2 \end{pmatrix}\).

  1. Montrer que \(B\) n’est pas diagonalisable.
  2. Déterminer la forme de Jordan de \(B\) et une matrice de passage.
Voir la correction

1. On développe par la deuxième ligne : \(\chi_B(\lambda) = (2 – \lambda)^3\). Unique valeur propre \(\lambda = 2\), de multiplicité 3.

\(B – 2I = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 0 \\ 1 & 0 & 0 \end{pmatrix}\), de rang 2. Donc \(\dim E_2 = 1 \neq 3\) : \(B\) n’est pas diagonalisable.

2. On calcule \((B – 2I)^2 = \begin{pmatrix} 0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 1 & 0 \end{pmatrix}\) (rang 1) et \((B – 2I)^3 = 0\).

Puisque \((B – 2I)^3 = 0\) mais \((B – 2I)^2 \neq 0\), la forme de Jordan est \(J_3(2) = \begin{pmatrix} 2 & 1 & 0 \\ 0 & 2 & 1 \\ 0 & 0 & 2 \end{pmatrix}\).

Construction de la base de Jordan : on cherche \(v_3\) tel que \(v_3 \notin \ker(B – 2I)^2\). Le noyau de \((B-2I)^2\) est \(\{(x,0,z)\}\), donc on prend \(v_3 = (0,1,0)^\top\).

\(v_2 = (B – 2I)v_3 = \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}\), puis \(v_1 = (B – 2I)v_2 = \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}\).

Avec \(P = (v_1 \mid v_2 \mid v_3) = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 1 & 0 & 0 \end{pmatrix}\), on a \(P^{-1}BP = J_3(2)\).


Exercice 10 — Matrice nilpotente
★★★ · ⏱ 15 min

Soit \(N = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix}\). Calculer \(N^2\) et \(N^3\). En déduire les valeurs propres de \(N\). \(N\) est-elle diagonalisable ? (Pour approfondir, voir la page matrice nilpotente.)

Voir la correction

\(N^2 = \begin{pmatrix} 0 & 0 & 1 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}\), \(N^3 = 0_3\).

Valeurs propres : si \(\lambda\) est valeur propre de \(N\), alors \(\lambda^3\) est valeur propre de \(N^3 = 0\). Donc \(\lambda^3 = 0\), d’où \(\lambda = 0\). L’unique valeur propre est 0 (de multiplicité 3).

Diagonalisabilité : si \(N\) était diagonalisable avec la seule valeur propre 0, on aurait \(N = P \cdot 0_3 \cdot P^{-1} = 0_3\). Or \(N \neq 0_3\) : contradiction. Donc \(N\) n’est pas diagonalisable.

Remarque : \(N\) est le bloc de Jordan \(J_3(0)\).

Logo-excellence-maths
Progresser en algèbre linéaire
Un professeur diplômé de Polytechnique pour t'accompagner en prépa : cours, méthodes, entraînement concours. Résultats visibles en 4 semaines.

Exercice 11 — Projecteurs et diagonalisabilité
★★★ · Incontournable · ⏱ 20 min

Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension finie et \(f \in \mathcal{L}(E)\) tel que \(f \circ f = f\).

  1. Montrer que les seules valeurs propres possibles de \(f\) sont 0 et 1.
  2. Montrer que \(f\) est diagonalisable.
  3. En déduire \(E = \ker f \oplus \mathrm{Im}\, f\).
  4. Application : Soit \(P = \begin{pmatrix} 1/2 & 1/2 \\ 1/2 & 1/2 \end{pmatrix}\). Vérifier que \(P^2 = P\) et interpréter géométriquement.
Voir la correction

1. Si \(\lambda\) est valeur propre : \(\exists\, v \neq 0,\; f(v) = \lambda v\). Alors \(f^2(v) = f(\lambda v) = \lambda^2 v\). Mais \(f^2 = f\), donc \(\lambda^2 v = \lambda v\), d’où \(\lambda^2 = \lambda\), soit \(\lambda \in \{0, 1\}\).

2. Le polynôme \(Q(X) = X^2 – X = X(X – 1)\) annule \(f\). Il est scindé à racines simples. Donc le polynôme minimal \(\mu_f\) divise \(Q\) et est scindé à racines simples : \(f\) est diagonalisable.

3. Puisque \(f\) est diagonalisable avec valeurs propres dans \(\{0, 1\}\), on a \(E = E_0(f) \oplus E_1(f)\). Or \(E_0(f) = \ker f\). Et \(E_1(f) = \ker(f – \mathrm{Id})\) : si \(f(v) = v\), alors \(v = f(v) \in \mathrm{Im}\, f\). Réciproquement, si \(w \in \mathrm{Im}\, f\), alors \(w = f(u)\) et \(f(w) = f^2(u) = f(u) = w\). Donc \(E_1(f) = \mathrm{Im}\, f\), et \(E = \ker f \oplus \mathrm{Im}\, f\).

4. \(P^2 = \begin{pmatrix} 1/2 & 1/2 \\ 1/2 & 1/2 \end{pmatrix}^2 = \begin{pmatrix} 1/2 & 1/2 \\ 1/2 & 1/2 \end{pmatrix} = P\). ✓

\(\chi_P(\lambda) = \lambda(\lambda – 1)\). Valeurs propres : 0 et 1. \(E_0 = \mathrm{Vect}(1, -1)^\top\), \(E_1 = \mathrm{Vect}(1, 1)^\top\).

Géométriquement, \(P\) est la projection sur \(\mathrm{Vect}(1,1)^\top\) parallèlement à \(\mathrm{Vect}(1,-1)^\top\).


Exercice 12 — Polynôme minimal et diagonalisabilité
★★★ · ⏱ 20 min

Soit \(A = \mathrm{diag}(2, 2, 5)\) et \(B = \begin{pmatrix} 2 & 1 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 5 \end{pmatrix}\).

  1. Déterminer le polynôme minimal de \(A\). \(A\) est-elle diagonalisable ?
  2. Déterminer le polynôme minimal de \(B\). \(B\) est-elle diagonalisable ?
Voir la correction

Les deux matrices ont le même polynôme caractéristique : \(\chi = (X – 2)^2(X – 5)\).

1. Polynôme minimal de \(A\) :

On teste \((A – 2I)(A – 5I) = \mathrm{diag}(0, 0, 3) \cdot \mathrm{diag}(-3, -3, 0) = 0_3\).

Donc \(\mu_A = (X – 2)(X – 5)\), scindé à racines simples : \(A\) est diagonalisable.

2. Polynôme minimal de \(B\) :

On teste \((B – 2I)(B – 5I) = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 3 \end{pmatrix}\begin{pmatrix} -3 & 1 & 0 \\ 0 & -3 & 0 \\ 0 & 0 & 0 \end{pmatrix} = \begin{pmatrix} 0 & -3 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix} \neq 0\)

On vérifie ensuite que \((B – 2I)^2(B – 5I) = 0_3\). Donc \(\mu_B = (X – 2)^2(X – 5)\), qui a la racine 2 avec multiplicité 2 : \(B\) n’est pas diagonalisable.

Morale : deux matrices avec le même \(\chi\) peuvent avoir des polynômes minimaux différents — c’est le polynôme minimal qui gouverne la diagonalisabilité.


Exercice 13 — Suite récurrente vectorielle
★★★ · Incontournable · ⏱ 20 min

On considère la suite \((u_n, v_n)_{n \geq 0}\) définie par :

\(\begin{cases} u_{n+1} = 3u_n + v_n \\ v_{n+1} = u_n + 3v_n \end{cases}\) avec \((u_0, v_0) = (1, 0)\).

Exprimer \(u_n\) et \(v_n\) en fonction de \(n\). (Ce type de calcul utilise la technique de matrice puissance.)

Voir la correction

On pose \(X_n = \begin{pmatrix} u_n \\ v_n \end{pmatrix}\) et \(A = \begin{pmatrix} 3 & 1 \\ 1 & 3 \end{pmatrix}\). Alors \(X_{n+1} = AX_n\), donc \(X_n = A^n X_0\).

Diagonalisation de \(A\) : \(\chi_A(\lambda) = (\lambda – 2)(\lambda – 4)\). Valeurs propres : 2 et 4.

\(E_2 = \mathrm{Vect}(1, -1)^\top\), \(E_4 = \mathrm{Vect}(1, 1)^\top\).

\(P = \begin{pmatrix} 1 & 1 \\ -1 & 1 \end{pmatrix}\), \(P^{-1} = \displaystyle\frac{1}{2}\begin{pmatrix} 1 & -1 \\ 1 & 1 \end{pmatrix}\).

\(X_n = P\,\mathrm{diag}(2^n, 4^n)\,P^{-1} X_0\).

\(P^{-1}X_0 = \displaystyle\frac{1}{2}\begin{pmatrix} 1 \\ 1 \end{pmatrix}\), donc :

\(X_n = \displaystyle\frac{1}{2}\begin{pmatrix} 1 & 1 \\ -1 & 1 \end{pmatrix}\begin{pmatrix} 2^n \\ 4^n \end{pmatrix} = \displaystyle\frac{1}{2}\begin{pmatrix} 2^n + 4^n \\ -2^n + 4^n \end{pmatrix}\) \(u_n = \displaystyle\frac{2^n + 4^n}{2},\quad v_n = \displaystyle\frac{4^n – 2^n}{2}\)

Vérification : \(u_0 = 1\) ✓, \(v_0 = 0\) ✓, \(u_1 = 3\) et \(3 \cdot 1 + 0 = 3\) ✓.


Exercice 14 — Diagonalisation orthogonale (théorème spectral)
★★★ · ⏱ 30 min

Soit \(A = \begin{pmatrix} 3 & -1 & 1 \\ -1 & 5 & -1 \\ 1 & -1 & 3 \end{pmatrix}\). Diagonaliser \(A\) dans une base orthonormée de \(\mathbb{R}^3\) (matrice symétrique réelle).

Voir la correction

\(A\) est symétrique réelle \(\Rightarrow\) diagonalisable dans une base orthonormée.

Polynôme caractéristique : après développement (on factorise \(3 – \lambda\) au premier pas) :

\(\chi_A(\lambda) = (3 – \lambda)(\lambda^2 – 8\lambda + 12) + 2(\lambda – 3) = (3 – \lambda)(\lambda^2 – 8\lambda + 12 – 2)\) \(= -(\ \lambda – 3)(\lambda^2 – 8\lambda + 12) + 2\lambda – 6\)

Calculons directement : on peut vérifier que \(\chi_A(\lambda) = -(\lambda – 2)(\lambda – 3)(\lambda – 6)\).

Valeurs propres : \(\lambda_1 = 2\), \(\lambda_2 = 3\), \(\lambda_3 = 6\).

Sous-espaces propres :

\(E_2\) : \(A – 2I = \begin{pmatrix} 1 & -1 & 1 \\ -1 & 3 & -1 \\ 1 & -1 & 1 \end{pmatrix}\) \(\Rightarrow\) \(E_2 = \mathrm{Vect}(1, 0, -1)^\top\)

\(E_3\) : \(A – 3I = \begin{pmatrix} 0 & -1 & 1 \\ -1 & 2 & -1 \\ 1 & -1 & 0 \end{pmatrix}\) \(\Rightarrow\) \(E_3 = \mathrm{Vect}(1, 1, 1)^\top\)

\(E_6\) : \(A – 6I = \begin{pmatrix} -3 & -1 & 1 \\ -1 & -1 & -1 \\ 1 & -1 & -3 \end{pmatrix}\) \(\Rightarrow\) \(E_6 = \mathrm{Vect}(1, -2, 1)^\top\)

Orthogonalité (vérification directe, garantie par le théorème spectral pour des VP distinctes) :

\((1,0,-1) \cdot (1,1,1) = 0\) ✓, \((1,0,-1) \cdot (1,-2,1) = 0\) ✓, \((1,1,1) \cdot (1,-2,1) = 0\) ✓.

Normalisation :

\(q_1 = \displaystyle\frac{1}{\sqrt{2}}(1, 0, -1)^\top\), \(q_2 = \displaystyle\frac{1}{\sqrt{3}}(1, 1, 1)^\top\), \(q_3 = \displaystyle\frac{1}{\sqrt{6}}(1, -2, 1)^\top\).

\(A = Q\,\mathrm{diag}(2, 3, 6)\,Q^\top\) avec \(Q = (q_1 \mid q_2 \mid q_3)\) orthogonale.


IV. Exercices de synthèse — type concours (★★★★ à ★★★★★)

Ces exercices demandent initiative, rigueur de rédaction et culture mathématique. Ils sont représentatifs de ce que l’on rencontre aux concours X, Mines-Ponts et Centrale.

Exercice 15 — Décomposition spectrale d’une matrice vérifiant A³ = A
★★★★ · Incontournable · ⏱ 25 min

Soit \(A \in \mathcal{M}_n(\mathbb{R})\) telle que \(A^3 = A\).

  1. Montrer que \(A\) est diagonalisable sur \(\mathbb{R}\) et préciser \(\mathrm{Sp}(A)\).
  2. Déterminer, à partir de \(A\) uniquement, les projecteurs spectraux \(P_1\), \(P_{-1}\), \(P_0\) sur les sous-espaces propres \(E_1\), \(E_{-1}\), \(E_0\) (lorsqu’ils sont non nuls).
  3. En déduire la décomposition spectrale de \(A\) et une expression explicite de \(A^k\) pour tout \(k \in \mathbb{N}^*\).
  4. Montrer que \(\mathrm{Im}\, A\) et \(\ker A\) sont supplémentaires dans \(\mathbb{R}^n\). Est-ce toujours le cas pour une matrice quelconque ?
Voir la correction

1. Le polynôme \(P(X) = X^3 – X = X(X – 1)(X + 1)\) annule \(A\). \(P\) est scindé sur \(\mathbb{R}\) à racines simples, donc le polynôme minimal \(\mu_A\) divise \(P\) et est lui aussi scindé à racines simples : \(A\) est diagonalisable. De plus \(\mathrm{Sp}(A) \subset \{-1, 0, 1\}\).

2. Cherchons les projecteurs sous la forme \(P_\lambda = Q_\lambda(A)\) avec \(Q_\lambda\) le polynôme de Lagrange associé à \(\lambda\) :

\(Q_1(X) = \displaystyle\frac{X(X + 1)}{2}\), \(Q_{-1}(X) = \displaystyle\frac{X(X – 1)}{2}\), \(Q_0(X) = 1 – X^2\)

D’où les projecteurs spectraux :

\(P_1 = \displaystyle\frac{A^2 + A}{2}, \quad P_{-1} = \displaystyle\frac{A^2 – A}{2}, \quad P_0 = I_n – A^2\)

Vérification : \(P_1 + P_{-1} + P_0 = A^2 + I_n – A^2 = I_n\). ✓

3. Décomposition spectrale : \(A = 1 \cdot P_1 + (-1) \cdot P_{-1} + 0 \cdot P_0 = P_1 – P_{-1}\). Pour \(k \geq 1\) : \(A^k = P_1 + (-1)^k P_{-1}\). Donc :

  • k pair : \(A^k = P_1 + P_{-1} = A^2\).
  • k impair : \(A^k = P_1 – P_{-1} = A\).

On retrouve \(A^3 = A\). Plus généralement, la suite \((A^k)_{k \geq 1}\) ne prend que deux valeurs : \(A\) et \(A^2\).

4. \(A\) étant diagonalisable : \(\mathbb{R}^n = E_{-1} \oplus E_0 \oplus E_1\). Or \(\ker A = E_0\) et \(\mathrm{Im}\, A = E_{-1} \oplus E_1\) (car \(A\) diagonalisable). Donc \(\mathbb{R}^n = \ker A \oplus \mathrm{Im}\, A\).

Contre-exemple général : pour \(A = \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}\), \(\ker A = \mathrm{Im}\, A = \mathrm{Vect}(e_1)\) : la somme n’est pas directe. L’hypothèse « \(A\) diagonalisable » est essentielle.

Méthode clé : la construction des projecteurs spectraux par polynômes de Lagrange permet de calculer toute fonction \(f(A)\) sans diagonalisation explicite. Elle se généralise à toute matrice à polynôme minimal scindé à racines simples.


Exercice 16 — Décomposition de Dunford et exponentielle d’un bloc de Jordan
★★★★ · ⏱ 30 min

Soit \(A = \begin{pmatrix} 2 & 1 & 0 \\ 0 & 2 & 1 \\ 0 & 0 & 2 \end{pmatrix}\).

  1. Montrer que \(A\) n’est pas diagonalisable.
  2. Écrire la décomposition de Dunford \(A = D + N\) avec \(D\) diagonalisable, \(N\) nilpotente et \(DN = ND\). Justifier l’unicité.
  3. En déduire \(\exp(tA)\) pour \(t \in \mathbb{R}\).
  4. Calculer \(A^n\) pour \(n \in \mathbb{N}\).
Voir la correction

1. \(A\) est triangulaire, donc \(\chi_A(X) = (X – 2)^3\) et \(\mathrm{Sp}(A) = \{2\}\). Si \(A\) était diagonalisable, \(A = 2 I_3\). Or \(A \neq 2 I_3\) : non diagonalisable.

2. Posons \(D = 2 I_3\) et \(N = A – 2 I_3 = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix}\).

\(D\) diagonalisable ; \(N\) nilpotente (\(N^2 = \begin{pmatrix} 0 & 0 & 1 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}\), \(N^3 = 0\)) ; \(DN = 2N = ND\). ✓

Unicité. Si \(A = D’ + N’\) avec les mêmes propriétés, alors \(D – D’ = N’ – N\). Le membre de gauche est diagonalisable (différence de matrices diagonalisables qui commutent), le membre de droite est nilpotent (même argument). Une matrice à la fois diagonalisable et nilpotente est nulle, donc \(D = D’\) et \(N = N’\).

3. \(DN = ND\) donne \(\exp(tA) = \exp(tD) \cdot \exp(tN) = e^{2t} I_3 \cdot \left(I_3 + tN + \displaystyle\frac{t^2}{2} N^2\right)\) (série finie car \(N^3 = 0\)) :

\(\exp(tA) = e^{2t} \begin{pmatrix} 1 & t & \displaystyle\frac{t^2}{2} \\ 0 & 1 & t \\ 0 & 0 & 1 \end{pmatrix}\)

Vérification : \(\exp(0) = I_3\) ✓. \(\displaystyle\frac{d}{dt}\exp(tA)\Big|_{t=0} = 2 I_3 + N = A\) ✓.

4. Formule du binôme (valide car \(DN = ND\)) avec \(N^3 = 0\), pour \(n \geq 2\) :

\(A^n = 2^n I_3 + n \cdot 2^{n-1} N + \displaystyle\frac{n(n-1)}{2} \cdot 2^{n-2} N^2 = \begin{pmatrix} 2^n & n \cdot 2^{n-1} & \displaystyle\frac{n(n-1)}{2} \cdot 2^{n-2} \\ 0 & 2^n & n \cdot 2^{n-1} \\ 0 & 0 & 2^n \end{pmatrix}\)

Méthode Dunford : dès que \(A\) a un polynôme caractéristique scindé (toujours vrai sur \(\mathbb{C}\)), la décomposition \(A = D + N\) (unique) ramène \(f(A)\) au calcul de \(f(D)\) (facile) et \(f(N)\) (série finie). Outil standard pour les exponentielles de matrices non diagonalisables.


Exercice 17 — Commutant d’une matrice cyclique
★★★★ · ⏱ 30 min

Soit \(A = \begin{pmatrix} 0 & 0 & 0 & -1 \\ 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \end{pmatrix} \in \mathcal{M}_4(\mathbb{R})\) (matrice compagnon de \(X^4 + 1\)).

  1. Calculer \(\chi_A\) et \(\mu_A\).
  2. Montrer que \(e_1 = (1, 0, 0, 0)^T\) est cyclique pour \(A\), i.e. \((e_1, A e_1, A^2 e_1, A^3 e_1)\) est une base de \(\mathbb{R}^4\).
  3. En déduire \(\mathcal{C}(A) = \mathbb{R}[A] = \{a_0 I_4 + a_1 A + a_2 A^2 + a_3 A^3 \mid a_i \in \mathbb{R}\}\) et donner \(\dim \mathcal{C}(A)\).
  4. \(A\) est-elle diagonalisable sur \(\mathbb{R}\) ? Sur \(\mathbb{C}\) ?
Voir la correction

1. \(A\) étant la matrice compagnon de \(X^4 + 1\), \(\chi_A(X) = X^4 + 1\).

\(A e_1 = e_2\), \(A^2 e_1 = e_3\), \(A^3 e_1 = e_4\), \(A^4 e_1 = -e_1\). On vérifie que \(A^4 e_k = -e_k\) pour tout \(k\) (car \(e_k = A^{k-1} e_1\) et \(A\) commute avec elle-même). Donc \(A^4 + I_4 = 0\) et \(\mu_A \mid X^4 + 1\).

Si \(\mu_A\) était de degré \(< 4[/latex], il existerait [latex]a_0, a_1, a_2, a_3[/latex] non tous nuls avec [latex]a_0 I + a_1 A + a_2 A^2 + a_3 A^3 = 0[/latex]. En appliquant à [latex]e_1[/latex] : [latex]a_0 e_1 + a_1 e_2 + a_2 e_3 + a_3 e_4 = 0[/latex] force [latex]a_i = 0[/latex]. Contradiction. Donc [latex]\mu_A = X^4 + 1 = \chi_A[/latex].

2. [latex](e_1, A e_1, A^2 e_1, A^3 e_1) = (e_1, e_2, e_3, e_4)\) est la base canonique, donc libre et génératrice.

3. Inclusion \(\mathbb{R}[A] \subset \mathcal{C}(A)\) : évidente.

Réciproquement, soit \(M \in \mathcal{C}(A)\). Écrivons \(M e_1 = a_0 e_1 + a_1 e_2 + a_2 e_3 + a_3 e_4 = Q(A) e_1\) avec \(Q(X) = a_0 + a_1 X + a_2 X^2 + a_3 X^3\). Pour tout \(k \in \{1, 2, 3, 4\}\) :

\(M e_k = M A^{k-1} e_1 = A^{k-1} M e_1 = A^{k-1} Q(A) e_1 = Q(A) A^{k-1} e_1 = Q(A) e_k\)

Donc \(M = Q(A) \in \mathbb{R}[A]\).

\((I_4, A, A^2, A^3)\) est libre (sinon \(\deg \mu_A < 4[/latex]), donc c'est une base de [latex]\mathbb{R}[A][/latex]. Conclusion : [latex]\dim \mathcal{C}(A) = 4[/latex].

4. [latex]X^4 + 1 > 0\) sur \(\mathbb{R}\) : aucune racine réelle, donc non diagonalisable sur \(\mathbb{R}\) (pas de valeur propre réelle).

Sur \(\mathbb{C}\), \(X^4 + 1\) a 4 racines simples (racines 8-ièmes primitives de l’unité \(e^{i\pi/4}, e^{3i\pi/4}, e^{5i\pi/4}, e^{7i\pi/4}\)), donc diagonalisable sur \(\mathbb{C}\).

Théorème de Frobenius : pour toute \(A \in \mathcal{M}_n\), \(\dim \mathcal{C}(A) \geq n\), avec égalité si et seulement si \(A\) est cyclique. De façon équivalente : \(\mu_A = \chi_A\). Les matrices compagnons sont le cas d’école.


Exercice 18 — Matrice circulante et transformée de Fourier discrète
★★★★★ · ⏱ 40 min

Soient \(a, b, c \in \mathbb{R}\) et \(C = \begin{pmatrix} a & b & c \\ c & a & b \\ b & c & a \end{pmatrix}\) (matrice circulante).

Soit \(J = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 1 & 0 & 0 \end{pmatrix}\) et \(j = e^{2 i \pi / 3}\).

  1. Montrer que \(C = a I_3 + b J + c J^2\).
  2. Montrer que \(J^3 = I_3\) et diagonaliser \(J\) sur \(\mathbb{C}\) (préciser une base de vecteurs propres).
  3. En déduire les valeurs propres de \(C\) et une formule close pour \(\det C\).
  4. À quelle condition sur \((a, b, c)\) la matrice \(C\) est-elle inversible ? Diagonalisable sur \(\mathbb{R}\) ?
Voir la correction

1. Calcul direct : \(J^2 = \begin{pmatrix} 0 & 0 & 1 \\ 1 & 0 & 0 \\ 0 & 1 & 0 \end{pmatrix}\), donc \(a I_3 + b J + c J^2 = C\). ✓

2. \(J\) est la matrice d’une permutation d’ordre 3, donc \(J^3 = I_3\). Le polynôme \(X^3 – 1 = (X – 1)(X – j)(X – j^2)\) est scindé à racines simples sur \(\mathbb{C}\) : \(J\) est diagonalisable sur \(\mathbb{C}\) de valeurs propres \(1, j, j^2\).

Vecteurs propres (vecteurs de Fourier discrète) : \(V_k = \begin{pmatrix} 1 \\ \omega^k \\ \omega^{2k} \end{pmatrix}\) avec \(\omega = j\), pour \(k \in \{0, 1, 2\}\). On vérifie : \(J V_k = \omega^k V_k\).

3. Comme \(C = P(J)\) avec \(P(X) = a + b X + c X^2\), les valeurs propres de \(C\) sont \(P(1), P(j), P(j^2)\) :

  • \(\lambda_0 = a + b + c\)
  • \(\lambda_1 = a + b j + c j^2\)
  • \(\lambda_2 = a + b j^2 + c j\) (conjugué de \(\lambda_1\))
\(\det C = \lambda_0 \lambda_1 \lambda_2 = (a + b + c)(a + b j + c j^2)(a + b j^2 + c j) = a^3 + b^3 + c^3 – 3 a b c\)

(identité classique, obtenue en utilisant \(1 + j + j^2 = 0\)).

4. Inversibilité : \(C\) inversible \(\iff \det C \neq 0 \iff (a + b + c)(a^2 + b^2 + c^2 – ab – bc – ca) \neq 0\).

Diagonalisabilité sur \(\mathbb{R}\) : il faut que \(\lambda_1 \in \mathbb{R}\), c’est-à-dire \(\lambda_1 = \overline{\lambda_1} = \lambda_2\). Or \(\lambda_1 – \lambda_2 = b(j – j^2) – c(j – j^2) = (b – c)(j – j^2)\). Comme \(j \neq j^2\), \(\lambda_1 \in \mathbb{R} \iff b = c\).

Mais si \(b = c\), \(\lambda_1 = a + b(j + j^2) = a – b\) est réel, et \(\lambda_1 = \lambda_2\) (multiplicité 2). Diagonalisable car \(C\) est alors symétrique (matrice symétrique réelle, toujours diagonalisable).

Conclusion : \(C\) est diagonalisable sur \(\mathbb{R}\) si et seulement si \(b = c\).

Culture : les matrices circulantes forment une algèbre commutative isomorphe à \(\mathbb{C}[X] / (X^n – 1)\). Toutes sont diagonalisables dans la même base (les \(V_k\)). C’est le cœur algébrique de la transformée de Fourier discrète (DFT) et de l’algorithme FFT, fondamental en traitement du signal.


Exercice 19 — Rotations de R³ et formule de Rodrigues
★★★★★ · ⏱ 40 min

Soit \(\vec{u} = (u_1, u_2, u_3) \in \mathbb{R}^3\) unitaire et

\(A_{\vec{u}} = \begin{pmatrix} 0 & -u_3 & u_2 \\ u_3 & 0 & -u_1 \\ -u_2 & u_1 & 0 \end{pmatrix}\)

(matrice du produit vectoriel \(\vec{v} \mapsto \vec{u} \wedge \vec{v}\) dans la base canonique).

  1. Vérifier que \(A_{\vec{u}}\) est antisymétrique. Calculer \(A_{\vec{u}}^2\) en fonction de \(I_3\) et de \(P_{\vec{u}} = \vec{u} \vec{u}^T\).
  2. En déduire \(A_{\vec{u}}^3 = -A_{\vec{u}}\) et donner le polynôme minimal de \(A_{\vec{u}}\).
  3. Montrer la formule de Rodrigues : pour tout \(\theta \in \mathbb{R}\), \(\exp(\theta A_{\vec{u}}) = I_3 + \sin\theta \cdot A_{\vec{u}} + (1 – \cos\theta) \cdot A_{\vec{u}}^2\).
  4. Vérifier que \(\exp(\theta A_{\vec{u}}) \in \mathrm{SO}_3(\mathbb{R})\) et donner l’interprétation géométrique.
Voir la correction

1. \(A_{\vec{u}}^T = -A_{\vec{u}}\) (lecture directe). Pour le carré, on utilise la formule du double produit vectoriel : \(\vec{u} \wedge (\vec{u} \wedge \vec{v}) = (\vec{u} \cdot \vec{v}) \vec{u} – \|\vec{u}\|^2 \vec{v} = (\vec{u} \cdot \vec{v}) \vec{u} – \vec{v}\) (car \(\|\vec{u}\| = 1\)). En écriture matricielle :

\(A_{\vec{u}}^2 = \vec{u} \vec{u}^T – I_3 = P_{\vec{u}} – I_3\)

Vérification : pour \(\vec{u} = e_3 = (0, 0, 1)\), \(A_{\vec{u}} = \begin{pmatrix} 0 & -1 & 0 \\ 1 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}\) et \(A_{\vec{u}}^2 = \begin{pmatrix} -1 & 0 & 0 \\ 0 & -1 & 0 \\ 0 & 0 & 0 \end{pmatrix} = e_3 e_3^T – I_3\). ✓

2. \(A_{\vec{u}}^3 = A_{\vec{u}} (P_{\vec{u}} – I_3) = A_{\vec{u}} P_{\vec{u}} – A_{\vec{u}}\). Or \(A_{\vec{u}} P_{\vec{u}} \vec{v} = (\vec{u} \cdot \vec{v})\, \vec{u} \wedge \vec{u} = 0\), donc \(A_{\vec{u}} P_{\vec{u}} = 0\) et :

\(A_{\vec{u}}^3 = -A_{\vec{u}}\)

Polynôme minimal : \(X^3 + X = X(X^2 + 1)\) annule \(A_{\vec{u}}\) (et il est scindé à racines simples sur \(\mathbb{C}\)). Aucun diviseur strict ne convient : \(X\) donnerait \(A_{\vec{u}} = 0\) ; \(X^2 + 1\) donnerait \(A_{\vec{u}}^2 = -I_3\), incompatible avec \(A_{\vec{u}}^2 = P_{\vec{u}} – I_3 \neq -I_3\). Donc \(\mu_{A_{\vec{u}}} = X^3 + X\).

3. De \(A_{\vec{u}}^3 = -A_{\vec{u}}\) on déduit par récurrence, pour \(k \geq 0\) : \(A_{\vec{u}}^{2k+1} = (-1)^k A_{\vec{u}}\) et \(A_{\vec{u}}^{2k+2} = (-1)^k A_{\vec{u}}^2\).

On développe l’exponentielle en séparant les termes pair/impair :

\(\exp(\theta A_{\vec{u}}) = I_3 + A_{\vec{u}} \displaystyle\sum_{k=0}^{+\infty} \displaystyle\frac{(-1)^k \theta^{2k+1}}{(2k+1)!} + A_{\vec{u}}^2 \displaystyle\sum_{k=0}^{+\infty} \displaystyle\frac{(-1)^k \theta^{2k+2}}{(2k+2)!}\)

La première somme vaut \(\sin\theta\), la seconde \(1 – \cos\theta\). D’où la formule de Rodrigues :

\(\exp(\theta A_{\vec{u}}) = I_3 + \sin\theta \cdot A_{\vec{u}} + (1 – \cos\theta) \cdot A_{\vec{u}}^2\)

4. Notons \(R = \exp(\theta A_{\vec{u}})\). Comme \(A_{\vec{u}}^T = -A_{\vec{u}}\) : \(R^T = \exp(-\theta A_{\vec{u}}) = R^{-1}\), donc \(R \in \mathrm{O}_3(\mathbb{R})\). De plus \(\det R = \exp(\theta \, \mathrm{tr}(A_{\vec{u}})) = \exp(0) = 1\) (\(A_{\vec{u}}\) antisymétrique, trace nulle). Donc \(R \in \mathrm{SO}_3(\mathbb{R})\).

Interprétation géométrique : \(R\) est la rotation d’angle \(\theta\) autour de l’axe dirigé par \(\vec{u}\). En effet, \(R \vec{u} = \vec{u}\) (car \(A_{\vec{u}} \vec{u} = \vec{u} \wedge \vec{u} = 0\)) : l’axe est fixe. Dans le plan orthogonal à \(\vec{u}\), \(R\) agit comme une rotation plane d’angle \(\theta\).

Culture : la formule de Rodrigues est centrale en cinématique du solide (robotique, aérospatiale, graphique 3D). Elle est le cas \(n = 3\) d’un résultat plus général : l’exponentielle \(\exp : \mathfrak{so}_n \to \mathrm{SO}_n\) est surjective (des matrices antisymétriques vers le groupe des rotations).


Exercice 20 — Système différentiel paramétré et stabilité asymptotique
★★★★★ · ⏱ 45 min

Pour \(\alpha \in \mathbb{R}\), on considère le système \(X^\prime(t) = A_\alpha X(t)\) avec :

\(A_\alpha = \begin{pmatrix} -1 & \alpha & 0 \\ 0 & -1 & 1 \\ 0 & 0 & \alpha – 2 \end{pmatrix}\)
  1. Selon \(\alpha\), la matrice \(A_\alpha\) est-elle diagonalisable sur \(\mathbb{R}\) ?
  2. Pour \(\alpha = 0\), diagonaliser \(A_0\) et résoudre le système avec \(X(0) = (1, 1, 1)^T\).
  3. Pour \(\alpha = 1\), effectuer la décomposition de Dunford \(A_1 = D + N\), puis résoudre le système avec \(X(0) = (0, 0, 1)^T\).
  4. Pour quelles valeurs de \(\alpha\) toutes les solutions tendent-elles vers \(0\) quand \(t \to +\infty\) ?
Voir la correction

1. \(A_\alpha\) triangulaire, valeurs propres \(-1\) (double) et \(\alpha – 2\) (simple si \(\alpha \neq 1\), sinon \(-1\) triple).

Cas \(\alpha = 1\) : \(A_1 + I_3 = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix}\), rang 2, donc \(\dim E_{-1} = 1 < 3[/latex] : non diagonalisable.

Cas [latex]\alpha \neq 1\) : il faut et suffit que \(\dim E_{-1} = 2\), c’est-à-dire \(\mathrm{rg}(A_\alpha + I_3) = 1\). Or \(A_\alpha + I_3 = \begin{pmatrix} 0 & \alpha & 0 \\ 0 & 0 & 1 \\ 0 & 0 & \alpha – 1 \end{pmatrix}\). Après \(L_3 \leftarrow L_3 – (\alpha – 1) L_2\) : lignes non nulles restantes \((0, \alpha, 0)\) et \((0, 0, 1)\). Rang = 1 si \(\alpha = 0\), rang = 2 sinon.

Conclusion : \(A_\alpha\) diagonalisable sur \(\mathbb{R}\) \(\iff \alpha = 0\).

2. \(A_0 = \begin{pmatrix} -1 & 0 & 0 \\ 0 & -1 & 1 \\ 0 & 0 & -2 \end{pmatrix}\). Spectres : \(-1\) (double), \(-2\) (simple).

\(E_{-1}\) : \(x_3 = 0\), \(x_1, x_2\) libres. Base : \(\bigl((1, 0, 0),\, (0, 1, 0)\bigr)\).

\(E_{-2}\) : \(x_1 = 0\) et \(x_2 + x_3 = 0\). Vecteur : \((0, -1, 1)\).

\(P = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & -1 \\ 0 & 0 & 1 \end{pmatrix}\), \(D = \mathrm{diag}(-1, -1, -2)\), \(P^{-1} = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 1 \\ 0 & 0 & 1 \end{pmatrix}\).

\(X(t) = P \, \mathrm{diag}(e^{-t}, e^{-t}, e^{-2t}) \, P^{-1} X(0)\). Calcul : \(P^{-1} X(0) = (1, 2, 1)^T\) ; puis \((e^{-t}, 2 e^{-t}, e^{-2t})^T\) ; puis :

\(X(t) = \bigl(e^{-t},\ 2 e^{-t} – e^{-2t},\ e^{-2t}\bigr)^T\)

Vérification : \(X(0) = (1, 1, 1)^T\) ✓.

3. \(A_1 = -I_3 + N\) avec \(N = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix}\). \(D = -I_3\) diagonalisable, \(N\) nilpotente d’indice 3, \(DN = ND\) : décomposition de Dunford.

\(\exp(t A_1) = e^{-t} \left(I_3 + t N + \displaystyle\frac{t^2}{2} N^2\right) = e^{-t} \begin{pmatrix} 1 & t & \displaystyle\frac{t^2}{2} \\ 0 & 1 & t \\ 0 & 0 & 1 \end{pmatrix}\) \(X(t) = \exp(t A_1) \cdot (0, 0, 1)^T = e^{-t} \left(\displaystyle\frac{t^2}{2},\ t,\ 1\right)^T\)

Vérification : \(X(0) = (0, 0, 1)^T\) ✓. \(X^\prime(0) = (0, 1, -1)^T\) et \(A_1 X(0) = (0, 1, -1)^T\) ✓.

4. Critère de stabilité asymptotique : toutes les solutions tendent vers \(0\) si et seulement si toutes les valeurs propres de \(A_\alpha\) ont une partie réelle strictement négative.

Valeurs propres : \(-1\) (toujours \(< 0[/latex]) et [latex]\alpha - 2[/latex]. La condition est [latex]\alpha - 2 < 0[/latex], soit [latex]\alpha < 2[/latex].

Cas limite [latex]\alpha = 2\) : valeur propre nulle, certaines solutions restent bornées non nulles (plan d’équilibre). Cas \(\alpha > 2\) : solutions explosives selon la composante associée à \(\alpha – 2 > 0\).

Culture : le critère spectral de stabilité asymptotique (toutes les valeurs propres de partie réelle négative) est le résultat central de la théorie de Lyapunov linéaire. Pour les systèmes non linéaires, on l’applique à la jacobienne du système au point d’équilibre (théorème de Hartman-Grobman).


V. Erreurs fréquentes et pièges classiques

Piège 1 — Confondre multiplicité algébrique et géométrique

Copie fautive : « La valeur propre \(\lambda = 2\) est de multiplicité 2 donc \(\dim E_2 = 2\), donc \(A\) est diagonalisable. »

Diagnostic : la multiplicité algébrique \(m_\lambda\) est l’ordre de la racine dans \(\chi_A\). La multiplicité géométrique \(\dim E_\lambda\) peut être strictement inférieure. Il faut toujours calculer \(\dim E_\lambda\) et vérifier que \(\dim E_\lambda = m_\lambda\).

Correction : « La valeur propre \(\lambda = 2\) a une multiplicité algébrique 2. On calcule \(\dim E_2 = \ldots\) et on compare. »

Piège 2 — Inverser les colonnes de \(P\) et les valeurs propres de \(D\)

La \(j\)-ème colonne de \(P\) est un vecteur propre associé à la \(j\)-ème valeur propre sur la diagonale de \(D\), dans le même ordre. Permuter les colonnes de \(P\) sans permuter les entrées de \(D\) rend le résultat faux.

Réflexe : toujours vérifier \(AP = PD\) colonne par colonne.

Piège 3 — Confondre diagonalisable et inversible

Une matrice peut être diagonalisable sans être inversible (ex : un projecteur avec la valeur propre 0). Inversement, \(\begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}\) est inversible mais non diagonalisable. Les deux notions sont indépendantes.

Piège 4 — Oublier que la diagonalisation sur \(\mathbb{R}\) et sur \(\mathbb{C}\) sont deux questions distinctes

La matrice de rotation \(R_\theta\) (exercice 19) n’est pas diagonalisable sur \(\mathbb{R}\) mais l’est sur \(\mathbb{C}\). Toujours préciser le corps dans l’énoncé et la rédaction.


VI. Questions fréquentes

Quelle est la différence entre diagonalisation et trigonalisation ?

La diagonalisation transforme une matrice en une matrice diagonale \(D\) via \(A = PDP^{-1}\) — elle n’est pas toujours possible. La trigonalisation transforme une matrice en une matrice triangulaire supérieure — elle est toujours possible sur \(\mathbb{C}\) (théorème de Schur). La diagonalisation est un cas particulier de trigonalisation. En pratique, on utilise la forme de Jordan (trigonalisation canonique) quand la diagonalisation échoue (exercice 9).

Comment savoir rapidement si une matrice est diagonalisable ?

Trois critères rapides, par ordre de puissance : (1) si \(A\) admet \(n\) valeurs propres distinctes \(\Rightarrow\) diagonalisable ; (2) si \(A\) est symétrique réelle \(\Rightarrow\) diagonalisable (théorème spectral) ; (3) si un polynôme scindé à racines simples annule \(A\) \(\Rightarrow\) diagonalisable. Si aucun critère rapide ne s’applique, il faut calculer la dimension de chaque sous-espace propre et la comparer à la multiplicité algébrique.

À quoi sert concrètement la diagonalisation ?

La diagonalisation simplifie tous les calculs itératifs ou analytiques sur une matrice : calcul de \(A^n\) (exercice 5), résolution de suites récurrentes linéaires (exercice 13), calcul de l’exponentielle \(\exp(A)\) (exercice 18), résolution de systèmes différentiels \(X^\prime = AX\) (exercice 20). En physique, elle sert à découpler les équations d’un système oscillant en modes propres.

Quelle est la différence entre polynôme caractéristique et polynôme minimal ?

Le polynôme caractéristique \(\chi_A\) est \(\det(A – \lambda I)\) — il a toujours degré \(n\). Le polynôme minimal \(\mu_A\) est le polynôme unitaire de plus petit degré annulant \(A\). On a toujours \(\mu_A \mid \chi_A\), et \(\chi_A\) et \(\mu_A\) ont les mêmes racines. La diagonalisabilité se lit sur \(\mu_A\) : \(A\) est diagonalisable ssi \(\mu_A\) est scindé à racines simples (exercice 12).


VII. Pour aller plus loin

Tu maîtrises maintenant les techniques de diagonalisation et de réduction. Pour approfondir ou consolider :

Logo-excellence-maths
Réussis tes concours avec un prof de l'X
Cours particuliers avec un professeur diplômé de Polytechnique. Méthode structurée, exigence bienveillante, résultats mesurables dès le premier mois.