Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec le niveau d’exigence attendu en classe préparatoire. Découvrir le professeur

La diagonalisation est l’une des techniques les plus puissantes de l’algèbre linéaire : écrire une matrice \(A\) sous la forme \(A = PDP^{-1}\) où \(D\) est diagonale simplifie radicalement le calcul de puissances, d’exponentielles et la résolution de systèmes différentiels. Ce cours développe les définitions, les critères de diagonalisabilité (CNS, polynôme minimal, théorème spectral), la méthode complète en 5 étapes et propose 11 exercices corrigés progressifs. Conforme au programme CPGE 2025-2026 (MPSI, PCSI, MP, PC, PSI).

I. Définitions fondamentales

Avant d’aborder la diagonalisation proprement dite, il est indispensable de maîtriser trois notions : matrice diagonale, similitude et matrice diagonalisable. Elles forment le socle de tout le chapitre de réduction.

A. Matrice diagonale

Définition — Matrice diagonale

Soit \(n \in \mathbb{N}^*\). Une matrice \(D \in \mathcal{M}_n(\mathbb{K})\) est dite diagonale si tous ses coefficients en dehors de la diagonale principale sont nuls :

\(D = \mathrm{diag}(d_1, d_2, \ldots, d_n) = \begin{pmatrix} d_1 & 0 & \cdots & 0 \\ 0 & d_2 & \ddots & \vdots \\ \vdots & \ddots & \ddots & 0 \\ 0 & \cdots & 0 & d_n \end{pmatrix}\)

L’intérêt des matrices diagonales est que toutes les opérations deviennent triviales :

  • Puissance : \(D^k = \mathrm{diag}(d_1^k, \ldots, d_n^k)\)
  • Déterminant : \(\det D = d_1 d_2 \cdots d_n\)
  • Inversibilité : \(D\) est inversible si et seulement si tous les \(d_i\) sont non nuls, et alors \(D^{-1} = \mathrm{diag}(d_1^{-1}, \ldots, d_n^{-1})\).

B. Similitude de matrices

Définition — Matrices semblables

Deux matrices \(A, B \in \mathcal{M}_n(\mathbb{K})\) sont dites semblables s’il existe \(P \in \mathrm{GL}_n(\mathbb{K})\) telle que :

\(B = P^{-1}AP\)

La similitude est une relation d’équivalence. Géométriquement, deux matrices semblables représentent le même endomorphisme dans deux bases différentes — c’est un changement de base. Les invariants de similitude sont les quantités préservées par cette relation :

  • Le déterminant : \(\det B = \det(P^{-1}AP) = \det A\)
  • La trace : \(\mathrm{Tr}(B) = \mathrm{Tr}(A)\)
  • Le polynôme caractéristique (donc les valeurs propres avec multiplicités)
  • Le rang

C. Matrice diagonalisable

Définition — Matrice diagonalisable

Une matrice \(A \in \mathcal{M}_n(\mathbb{K})\) est dite diagonalisable (sur \(\mathbb{K}\)) s’il existe \(P \in \mathrm{GL}_n(\mathbb{K})\) et \(D\) diagonale telles que :

\(A = PDP^{-1}\)

De manière équivalente, \(A\) est semblable à une matrice diagonale.

Concrètement, diagonaliser \(A\) revient à trouver la matrice de passage \(P\) et la matrice diagonale \(D\). Les colonnes de \(P\) sont des vecteurs propres de \(A\), et les coefficients diagonaux de \(D\) sont les valeurs propres correspondantes.

Attention à l’ordre : la \(j\)-ème colonne de \(P\) doit être un vecteur propre associé à la \(j\)-ème entrée diagonale de \(D\). Si tu permutes les colonnes de \(P\), tu dois permuter les entrées de \(D\) de la même façon.


II. Spectre, espaces propres et polynôme caractéristique

Les outils de la diagonalisation sont les valeurs propres, les vecteurs propres et le polynôme caractéristique. Cette section en rappelle les définitions essentielles — pour un traitement complet, consulte la page valeurs propres et vecteurs propres.

A. Valeurs propres et vecteurs propres

Définition — Valeur propre, vecteur propre

Soit \(A \in \mathcal{M}_n(\mathbb{K})\). Un scalaire \(\lambda \in \mathbb{K}\) est une valeur propre de \(A\) s’il existe un vecteur \(v \in \mathbb{K}^n\) non nul tel que :

\(Av = \lambda v\)

Le vecteur \(v\) est alors un vecteur propre de \(A\) associé à \(\lambda\). L’ensemble des valeurs propres de \(A\) est le spectre de \(A\), noté \(\mathrm{Sp}(A)\).

L’équation \(Av = \lambda v\) se réécrit \((A – \lambda I_n)v = 0\), ce qui signifie que \(\lambda\) est valeur propre de \(A\) si et seulement si \(\ker(A – \lambda I_n) \neq \{0\}\), c’est-à-dire si et seulement si \(A – \lambda I_n\) n’est pas inversible.

B. Polynôme caractéristique

Définition — Polynôme caractéristique

Le polynôme caractéristique de \(A \in \mathcal{M}_n(\mathbb{K})\) est :

\(\chi_A(X) = \det(A – XI_n)\)

C’est un polynôme de degré \(n\) en \(X\), de coefficient dominant \((-1)^n\).

Les valeurs propres de \(A\) sont exactement les racines de \(\chi_A\) dans \(\mathbb{K}\). En effet, \(\lambda\) est valeur propre si et seulement si \(A – \lambda I_n\) n’est pas inversible, soit \(\det(A – \lambda I_n) = 0\), soit \(\chi_A(\lambda) = 0\).

Coefficients remarquables de \(\chi_A\) :

  • \(\chi_A(0) = \det A\)
  • Le coefficient de \(X^{n-1}\) est \((-1)^{n-1}\mathrm{Tr}(A)\)
  • Si \(\lambda_1, \ldots, \lambda_n\) sont les racines (comptées avec multiplicités) : \(\mathrm{Tr}(A) = \sum \lambda_i\) et \(\det A = \prod \lambda_i\)

C. Multiplicité algébrique et multiplicité géométrique

Définition — Espace propre et multiplicités

Soit \(\lambda \in \mathrm{Sp}(A)\).

  • L’espace propre associé à \(\lambda\) est \(E_\lambda(A) = \ker(A – \lambda I_n)\).
  • La multiplicité algébrique de \(\lambda\), notée \(m_a(\lambda)\), est l’ordre de \(\lambda\) comme racine de \(\chi_A\).
  • La multiplicité géométrique de \(\lambda\) est \(m_g(\lambda) = \dim E_\lambda(A)\).

On a toujours l’encadrement fondamental :

\(1 \leq m_g(\lambda) \leq m_a(\lambda)\)

La borne inférieure \(m_g(\lambda) \geq 1\) vient du fait que \(E_\lambda \neq \{0\}\) dès que \(\lambda\) est valeur propre. La borne supérieure \(m_g(\lambda) \leq m_a(\lambda)\) est un résultat plus délicat.

D. Théorème d’indépendance des vecteurs propres

Ce théorème est la clé de voûte de la théorie de la diagonalisation. Il explique pourquoi des valeurs propres distinctes « ne se mélangent pas ».

Théorème ⋆ (exigible) — Indépendance des vecteurs propres

Soient \(\lambda_1, \ldots, \lambda_p\) des valeurs propres deux à deux distinctes de \(A\), et \(v_1, \ldots, v_p\) des vecteurs propres associés (non nuls). Alors la famille \((v_1, \ldots, v_p)\) est libre.

Plus généralement, la somme \(E_{\lambda_1} + E_{\lambda_2} + \cdots + E_{\lambda_p}\) est directe.

Démonstration ⋆. Par récurrence forte sur \(p\).

Initialisation (\(p = 1\)) : un vecteur propre est non nul par définition, donc \((v_1)\) est libre.

Hérédité : supposons le résultat vrai pour toute famille de \(p – 1\) vecteurs propres associés à des valeurs propres distinctes. Soit \(\alpha_1 v_1 + \cdots + \alpha_p v_p = 0\) une combinaison linéaire nulle. En multipliant par \(A\) :

\(\alpha_1 \lambda_1 v_1 + \cdots + \alpha_p \lambda_p v_p = 0\)

En soustrayant \(\lambda_p\) fois la relation initiale :

\(\alpha_1(\lambda_1 – \lambda_p)v_1 + \cdots + \alpha_{p-1}(\lambda_{p-1} – \lambda_p)v_{p-1} = 0\)

Par hypothèse de récurrence, \((v_1, \ldots, v_{p-1})\) est libre. Comme \(\lambda_i – \lambda_p \neq 0\) pour tout \(i \leq p-1\), on en déduit \(\alpha_1 = \cdots = \alpha_{p-1} = 0\). La relation initiale donne alors \(\alpha_p v_p = 0\), d’où \(\alpha_p = 0\) puisque \(v_p \neq 0\). ■


III. Critères de diagonalisabilité

Comment savoir si une matrice est diagonalisable ? Cette section rassemble les critères essentiels, du plus général (la CNS) aux plus pratiques (valeurs propres distinctes, théorème spectral).

A. Condition nécessaire et suffisante

Théorème ⋆ (CNS de diagonalisabilité)

Soit \(A \in \mathcal{M}_n(\mathbb{K})\). Alors \(A\) est diagonalisable sur \(\mathbb{K}\) si et seulement si :

  1. \(\chi_A\) est scindé sur \(\mathbb{K}\) (toutes les racines sont dans \(\mathbb{K}\)).
  2. Pour chaque valeur propre \(\lambda\) : \(m_g(\lambda) = m_a(\lambda)\) (la multiplicité géométrique égale la multiplicité algébrique).

De manière équivalente : \(A\) est diagonalisable si et seulement si \(\sum_{\lambda \in \mathrm{Sp}(A)} \dim E_\lambda = n\).

Idée de la démonstration ⋆.

Sens \(\Leftarrow\) : si les conditions sont vérifiées, la somme des espaces propres est directe (théorème précédent) et de dimension totale \(n\). En choisissant une base de chaque \(E_\lambda\), on obtient une base de \(\mathbb{K}^n\) formée de vecteurs propres. La matrice de passage \(P\) dont les colonnes sont ces vecteurs propres vérifie \(P^{-1}AP = D\).

Sens \(\Rightarrow\) : si \(A = PDP^{-1}\) avec \(D = \mathrm{diag}(\lambda_1, \ldots, \lambda_n)\), alors \(\chi_A = \chi_D = \prod_{i=1}^n (\lambda_i – X)\) est scindé. Les colonnes de \(P\) fournissent suffisamment de vecteurs propres pour que \(m_g(\lambda) = m_a(\lambda)\) pour chaque \(\lambda\).

B. Caractérisation par le polynôme minimal

Théorème — Caractérisation par le polynôme minimal

\(A \in \mathcal{M}_n(\mathbb{K})\) est diagonalisable sur \(\mathbb{K}\) si et seulement si son polynôme minimal \(\mu_A\) est scindé à racines simples sur \(\mathbb{K}\).

Ce critère est extrêmement puissant en pratique : pour montrer qu’une matrice est diagonalisable, il suffit d’exhiber un polynôme annulateur scindé à racines simples. Par le théorème de Cayley-Hamilton, \(\mu_A\) divise \(\chi_A\), donc tout diviseur de \(\chi_A\) à racines simples qui annule \(A\) convient.

En pratique au concours : pour montrer que \(A\) est diagonalisable, il est souvent plus rapide de trouver un polynôme annulateur scindé à racines simples (par exemple \(A^2 – A = 0 \Rightarrow \mu_A \mid X(X-1)\)) que de calculer tous les espaces propres.

C. Critères suffisants

Deux critères suffisants simplifient considérablement la vie :

Corollaire ⋆ — Valeurs propres distinctes

Si \(A \in \mathcal{M}_n(\mathbb{K})\) possède \(n\) valeurs propres deux à deux distinctes dans \(\mathbb{K}\), alors \(A\) est diagonalisable.

Démonstration : chaque espace propre est de dimension au moins 1, et par le théorème d’indépendance, \(\sum m_g(\lambda_i) = \sum 1 = n\) puisque \(\sum m_a(\lambda_i) = n\) et \(m_g \leq m_a\). Donc \(m_g(\lambda_i) = m_a(\lambda_i) = 1\) pour tout \(i\).

Attention : la réciproque est fausse. Une matrice peut être diagonalisable avec des valeurs propres multiples. Par exemple, \(I_n\) est diagonale (donc diagonalisable) avec une seule valeur propre \(\lambda = 1\) de multiplicité \(n\).

D. Théorème spectral

Théorème spectral (admis)

Toute matrice \(A \in \mathcal{S}_n(\mathbb{R})\) (symétrique réelle) est diagonalisable dans \(\mathbb{R}\). Plus précisément, il existe \(P \in \mathcal{O}_n(\mathbb{R})\) (orthogonale) telle que \(P^{-1}AP = P^\top AP\) est diagonale.

Ce résultat est remarquable : pour les matrices symétriques, la diagonalisabilité est automatique. De plus, la matrice de passage peut être choisie orthogonale, ce qui simplifie les calculs puisque \(P^{-1} = P^\top\).

Récapitulatif des critères de diagonalisabilité
Critère Hypothèse Conclusion
CNS \(\chi_A\) scindé et \(\forall \lambda,\; m_g(\lambda) = m_a(\lambda)\) \(A\) diagonalisable
Polynôme minimal \(\mu_A\) scindé à racines simples \(A\) diagonalisable
VP distinctes \(\chi_A\) a \(n\) racines distinctes \(A\) diagonalisable
Théorème spectral \(A \in \mathcal{S}_n(\mathbb{R})\) \(A\) diag. dans \(\mathbb{R}\) (base ON)
Logo-excellence-maths
Progresse rapidement en maths sup avec un prof de Polytechnique
Cours particuliers sur-mesure, adapté à ton rythme et à tes objectifs de concours. Résultats visibles dès les premières semaines.

IV. Méthode de diagonalisation en 5 étapes

Voici la procédure systématique pour diagonaliser une matrice \(A \in \mathcal{M}_n(\mathbb{K})\), à maîtriser pour les DS et les concours.

Méthode — Diagonalisation en 5 étapes

  1. Calculer \(\chi_A(X) = \det(A – XI_n)\). Développer le déterminant par la méthode la plus adaptée (cofacteurs, Sarrus pour \(n = 3\), opérations élémentaires).
  2. Factoriser \(\chi_A\) pour trouver les valeurs propres. Vérifier que \(\chi_A\) est scindé sur \(\mathbb{K}\). Si ce n’est pas le cas, \(A\) n’est pas diagonalisable sur \(\mathbb{K}\).
  3. Pour chaque valeur propre \(\lambda\), calculer l’espace propre \(E_\lambda = \ker(A – \lambda I_n)\). Résoudre le système homogène \((A – \lambda I_n)X = 0\) et déterminer une base de \(E_\lambda\).
  4. Vérifier \(\sum \dim E_\lambda = n\). Si cette condition n’est pas satisfaite, \(A\) n’est pas diagonalisable. Sinon, former \(P\) en juxtaposant les bases des espaces propres comme colonnes, et \(D = \mathrm{diag}(\lambda_1, \ldots, \lambda_n)\) en respectant l’ordre des colonnes de \(P\).
  5. Vérifier (optionnel) : \(AP = PD\) (plus simple que \(P^{-1}AP = D\) car on évite le calcul de \(P^{-1}\)).

Astuce de vérification rapide : au lieu de calculer \(P^{-1}AP\), vérifie que \(AP = PD\). C’est colonne par colonne : la \(j\)-ème colonne de \(AP\) doit être \(\lambda_j\) fois la \(j\)-ème colonne de \(P\). C’est plus rapide et il n’y a pas d’inversion à effectuer.


V. Exemples résolus

Appliquons la méthode sur trois exemples de difficulté croissante : une matrice \(2 \times 2\), une matrice \(3 \times 3\) symétrique avec valeur propre double, et une matrice \(3 \times 3\) dépendant d’un paramètre.

A. Matrice 2×2 (★)

Exemple — Diagonaliser \(A = \begin{pmatrix} 3 & 1 \\ 0 & 2 \end{pmatrix}\)

Étape 1-2. Polynôme caractéristique :

\(\chi_A(X) = \begin{vmatrix} 3 – X & 1 \\ 0 & 2 – X \end{vmatrix} = (3-X)(2-X) = (X-2)(X-3)\)

Deux valeurs propres distinctes : \(\lambda_1 = 2\) et \(\lambda_2 = 3\).

Étape 3. Espaces propres :

\(E_2 = \ker(A – 2I_2) = \ker\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} = \mathrm{Vect}\begin{pmatrix} -1 \\ 1 \end{pmatrix}\)
\(E_3 = \ker(A – 3I_2) = \ker\begin{pmatrix} 0 & 1 \\ 0 & -1 \end{pmatrix} = \mathrm{Vect}\begin{pmatrix} 1 \\ 0 \end{pmatrix}\)

Étape 4. Deux VP distinctes en dimension 2 : \(A\) est diagonalisable.

\(P = \begin{pmatrix} -1 & 1 \\ 1 & 0 \end{pmatrix}, \quad D = \begin{pmatrix} 2 & 0 \\ 0 & 3 \end{pmatrix}\)

Étape 5. Vérification \(AP = PD\) :

\(AP = \begin{pmatrix} 3 & 1 \\ 0 & 2 \end{pmatrix}\begin{pmatrix} -1 & 1 \\ 1 & 0 \end{pmatrix} = \begin{pmatrix} -2 & 3 \\ 2 & 0 \end{pmatrix} = PD\) ✓

B. Matrice 3×3 symétrique avec valeur propre double (★★)

Exemple — Diagonaliser \(B = \begin{pmatrix} 1 & 0 & 1 \\ 0 & 2 & 0 \\ 1 & 0 & 1 \end{pmatrix}\)

Étape 1-2. La matrice est symétrique réelle, donc diagonalisable (théorème spectral). Calculons néanmoins le polynôme caractéristique. En développant selon la deuxième ligne :

\(\chi_B(X) = (2-X)\begin{vmatrix} 1-X & 1 \\ 1 & 1-X \end{vmatrix} = (2-X)\big[(1-X)^2 – 1\big]\)
\(= (2-X)(X^2 – 2X) = -X(X-2)^2\)

Valeurs propres : \(\lambda_1 = 0\) (simple) et \(\lambda_2 = 2\) (double, \(m_a = 2\)).

Étape 3. Espaces propres :

\(E_0 = \ker B\). Le système \(BX = 0\) donne \(x_1 + x_3 = 0\) et \(2x_2 = 0\) :

\(E_0 = \mathrm{Vect}\begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix}, \quad \dim E_0 = 1\)

\(E_2 = \ker(B – 2I_3) = \ker\begin{pmatrix} -1 & 0 & 1 \\ 0 & 0 & 0 \\ 1 & 0 & -1 \end{pmatrix}\). Le système se réduit à \(x_1 = x_3\), \(x_2\) libre :

\(E_2 = \mathrm{Vect}\left(\begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix},\; \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}\right), \quad \dim E_2 = 2\)

Étape 4. \(\dim E_0 + \dim E_2 = 1 + 2 = 3 = n\) ✓. On pose :

\(P = \begin{pmatrix} 1 & 1 & 0 \\ 0 & 0 & 1 \\ -1 & 1 & 0 \end{pmatrix}, \quad D = \begin{pmatrix} 0 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 2 \end{pmatrix}\)

Point-clé : c’est l’étape « \(\dim E_2 = m_a(2) = 2\) » qui confirme la diagonalisabilité. Si on avait trouvé \(\dim E_2 = 1\), la matrice ne serait pas diagonalisable malgré le théorème spectral — ce qui contredirait le théorème ! Pour une matrice symétrique, cette vérification est donc toujours satisfaite, mais l’écrire explicitement est attendu en rédaction de concours.

C. Matrice dépendant d’un paramètre (★★★)

Exemple — Pour quelles valeurs de \(a \in \mathbb{R}\), la matrice suivante est-elle diagonalisable ?

\(M(a) = \begin{pmatrix} a & 1 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & a \end{pmatrix}\)

Étape 1-2. La matrice est triangulaire supérieure, donc :

\(\chi_{M(a)}(X) = (a – X)^2(2 – X)\)

Valeurs propres : \(a\) (double) et \(2\) (simple).

Discussion selon les valeurs de \(a\) :

Cas \(a \neq 2\) : deux valeurs propres \(a\) et \(2\).

\(E_a = \ker(M(a) – aI_3) = \ker\begin{pmatrix} 0 & 1 & 0 \\ 0 & 2-a & 0 \\ 0 & 0 & 0 \end{pmatrix}\)

Puisque \(a \neq 2\), les deux premières lignes imposent \(x_2 = 0\). On obtient :

\(E_a = \mathrm{Vect}\left(\begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix},\; \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}\right), \quad \dim E_a = 2 = m_a(a) \; \text{✓}\)

\(\dim E_a + \dim E_2 = 2 + 1 = 3\) : \(M(a)\) est diagonalisable.

Cas \(a = 2\) : une seule valeur propre \(2\) de multiplicité algébrique 3.

\(M(2) – 2I_3 = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}\)
\(E_2 = \mathrm{Vect}\left(\begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix},\; \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}\right), \quad \dim E_2 = 2 \neq 3 = m_a(2)\)

\(M(2)\) n’est pas diagonalisable.

Conclusion : \(M(a)\) est diagonalisable si et seulement si \(a \neq 2\).


VI. Applications de la diagonalisation

La diagonalisation ne se limite pas à un exercice théorique. Elle est l’outil central de nombreux problèmes concrets, de la résolution de récurrences au calcul d’exponentielles de matrices.

A. Calcul de \(A^n\)

Si \(A = PDP^{-1}\), alors pour tout \(n \in \mathbb{N}\) :

\(A^n = PD^nP^{-1} = P \begin{pmatrix} \lambda_1^n & & 0 \\ & \ddots & \\ 0 & & \lambda_p^n \end{pmatrix} P^{-1}\)

Le calcul de \(A^n\) se ramène donc au calcul de puissances de scalaires. Pour un traitement approfondi, consulte la page matrice puissance.

B. Exponentielle de matrice et systèmes différentiels

La diagonalisation permet de calculer l’exponentielle de matrice :

\(\mathrm{exp}(tA) = P \begin{pmatrix} e^{\lambda_1 t} & & 0 \\ & \ddots & \\ 0 & & e^{\lambda_n t} \end{pmatrix} P^{-1}\)

C’est l’outil fondamental pour résoudre le système différentiel linéaire \(X^\prime(t) = AX(t)\) dont la solution est \(X(t) = \mathrm{exp}(tA) \cdot X(0)\). En passant dans la base de diagonalisation, le système se découple en \(n\) équations différentielles scalaires indépendantes.

C. Suites récurrentes linéaires

Soit \(U_{n+1} = AU_n\) un système de suites récurrentes vectoriel. Alors \(U_n = A^n U_0\). Si \(A\) est diagonalisable, on obtient :

\(U_n = PD^nP^{-1}U_0\)

En posant \(V_n = P^{-1}U_n\), le système se découple : chaque composante de \(V_n\) suit une suite géométrique de raison \(\lambda_i\). On repasse ensuite aux coordonnées initiales par \(U_n = PV_n\).

Applications hors mathématiques : la diagonalisation est au cœur du PageRank de Google (classement des pages web par le vecteur propre dominant d’une matrice stochastique), de l’analyse en composantes principales (ACP) en data science (diagonalisation de la matrice de covariance), et de la mécanique quantique (observables et états propres). Aucune de ces applications n’est au programme, mais elles illustrent pourquoi la diagonalisation est l’un des outils les plus utilisés en sciences.


VII. Exercices corrigés

Voici 11 exercices classés par difficulté croissante, de l’application directe aux problèmes de concours. Chaque correction est détaillée pas à pas.

Exercice 1 (★) — Diagonaliser la matrice \(A = \begin{pmatrix} 5 & 6 \\ -2 & -2 \end{pmatrix}\).

Voir la correction

Étape 1-2. \(\chi_A(X) = (5-X)(-2-X) + 12 = X^2 – 3X + 2 = (X-1)(X-2)\).

Valeurs propres : \(\lambda_1 = 1\), \(\lambda_2 = 2\).

Étape 3.

\(E_1 = \ker\begin{pmatrix} 4 & 6 \\ -2 & -3 \end{pmatrix} = \mathrm{Vect}\begin{pmatrix} -3 \\ 2 \end{pmatrix}\) \(E_2 = \ker\begin{pmatrix} 3 & 6 \\ -2 & -4 \end{pmatrix} = \mathrm{Vect}\begin{pmatrix} -2 \\ 1 \end{pmatrix}\)

Conclusion : \(A = PDP^{-1}\) avec \(P = \begin{pmatrix} -3 & -2 \\ 2 & 1 \end{pmatrix}\) et \(D = \begin{pmatrix} 1 & 0 \\ 0 & 2 \end{pmatrix}\).


Exercice 2 (★) — La matrice \(N = \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}\) est-elle diagonalisable ? Justifier.

Voir la correction

\(\chi_N(X) = X^2\). Unique valeur propre : \(\lambda = 0\) de multiplicité algébrique \(m_a = 2\).

\(E_0 = \ker N = \mathrm{Vect}\begin{pmatrix} 1 \\ 0 \end{pmatrix}\), donc \(\dim E_0 = 1 \neq 2 = m_a(0)\).

Conclusion : \(N\) n’est pas diagonalisable. C’est une matrice nilpotente non nulle, donc jamais semblable à la matrice nulle (qui est la seule matrice diagonale ayant 0 comme unique valeur propre).


Exercice 3 (★★) — Diagonaliser \(B = \begin{pmatrix} 1 & 0 & 1 \\ 0 & 2 & 0 \\ 1 & 0 & 1 \end{pmatrix}\).

Voir la correction

\(B\) est symétrique réelle, donc diagonalisable (théorème spectral).

Polynôme caractéristique : développement selon la 2e ligne :

\(\chi_B(X) = (2-X)\big[(1-X)^2 – 1\big] = (2-X)(X^2 – 2X) = -X(X-2)^2\)

Valeurs propres : \(0\) (simple) et \(2\) (double).

Espaces propres :

\(E_0 = \ker B = \mathrm{Vect}\begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix}\) (dim 1)

\(E_2 = \ker(B – 2I_3)\) : le système se réduit à \(x_1 = x_3\), \(x_2\) libre.

\(E_2 = \mathrm{Vect}\left(\begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix},\; \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}\right)\) (dim 2 = \(m_a(2)\) ✓)

Conclusion : \(P = \begin{pmatrix} 1 & 1 & 0 \\ 0 & 0 & 1 \\ -1 & 1 & 0 \end{pmatrix}\), \(D = \begin{pmatrix} 0 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 2 \end{pmatrix}\).


Exercice 4 (★★) — En utilisant la diagonalisation, calculer \(A^n\) pour \(A = \begin{pmatrix} 3 & 1 \\ 0 & 2 \end{pmatrix}\) et tout \(n \in \mathbb{N}\).

Voir la correction

D’après la section V.A, \(A = PDP^{-1}\) avec \(P = \begin{pmatrix} -1 & 1 \\ 1 & 0 \end{pmatrix}\) et \(D = \begin{pmatrix} 2 & 0 \\ 0 & 3 \end{pmatrix}\).

On calcule \(P^{-1}\). Comme \(\det P = 0 – 1 = -1\) :

\(P^{-1} = \begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix}\)

Alors :

\(A^n = PD^nP^{-1} = \begin{pmatrix} -1 & 1 \\ 1 & 0 \end{pmatrix}\begin{pmatrix} 2^n & 0 \\ 0 & 3^n \end{pmatrix}\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix}\) \(= \begin{pmatrix} -2^n & 3^n \\ 2^n & 0 \end{pmatrix}\begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix} = \begin{pmatrix} 3^n & 3^n – 2^n \\ 0 & 2^n \end{pmatrix}\)

Vérification : \(A^0 = I_2\) ✓ et \(A^1 = \begin{pmatrix} 3 & 1 \\ 0 & 2 \end{pmatrix}\) ✓.


Exercice 5 (★★★) — Pour quelles valeurs de \(a \in \mathbb{R}\), la matrice \(M(a) = \begin{pmatrix} a & 1 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & a \end{pmatrix}\) est-elle diagonalisable ?

Voir la correction

Voir la résolution complète dans l’exemple V.C ci-dessus. Résultat : \(M(a)\) est diagonalisable si et seulement si \(a \neq 2\).


Exercice 6 (★★★) — On considère les suites \((u_n)\) et \((v_n)\) définies par \(u_0 = 1\), \(v_0 = 0\) et :

\(\begin{cases} u_{n+1} = 3u_n + v_n \\ v_{n+1} = u_n + 3v_n \end{cases}\)

Exprimer \(u_n\) et \(v_n\) en fonction de \(n\).

Voir la correction

Posons \(U_n = \begin{pmatrix} u_n \\ v_n \end{pmatrix}\). Le système s’écrit \(U_{n+1} = MU_n\) avec \(M = \begin{pmatrix} 3 & 1 \\ 1 & 3 \end{pmatrix}\).

Diagonalisation de \(M\) :

\(\chi_M(X) = (3-X)^2 – 1 = X^2 – 6X + 8 = (X-2)(X-4)\)

Valeurs propres : \(2\) et \(4\).

\(E_2 = \ker\begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} = \mathrm{Vect}\begin{pmatrix} -1 \\ 1 \end{pmatrix}\) \(E_4 = \ker\begin{pmatrix} -1 & 1 \\ 1 & -1 \end{pmatrix} = \mathrm{Vect}\begin{pmatrix} 1 \\ 1 \end{pmatrix}\)

\(P = \begin{pmatrix} -1 & 1 \\ 1 & 1 \end{pmatrix}\), \(\det P = -2\), \(P^{-1} = \begin{pmatrix} -\frac{1}{2} & \frac{1}{2} \\[6pt] \frac{1}{2} & \frac{1}{2} \end{pmatrix}\)

Expression de \(U_n\) :

\(U_n = M^n U_0 = P\begin{pmatrix} 2^n & 0 \\ 0 & 4^n \end{pmatrix}P^{-1}\begin{pmatrix} 1 \\ 0 \end{pmatrix}\)

\(P^{-1}U_0 = \begin{pmatrix} -1/2 \\ 1/2 \end{pmatrix}\), puis \(D^n P^{-1}U_0 = \begin{pmatrix} -2^n/2 \\ 4^n/2 \end{pmatrix}\).

\(U_n = P\begin{pmatrix} -2^n/2 \\ 4^n/2 \end{pmatrix} = \begin{pmatrix} 2^n/2 + 4^n/2 \\ -2^n/2 + 4^n/2 \end{pmatrix}\)

Résultat :

\(u_n = \frac{2^n + 4^n}{2}, \quad v_n = \frac{4^n – 2^n}{2}\)

Vérification : \(u_0 = 1\) ✓, \(v_0 = 0\) ✓, \(u_1 = 3\) ✓, \(v_1 = 1\) ✓.


Exercice 7 (★★★) — Soit \(A \in \mathcal{M}_n(\mathbb{K})\) telle que \(A^2 = A\) (matrice idempotente). Montrer que \(A\) est diagonalisable et déterminer ses valeurs propres possibles.

Voir la correction

Valeurs propres possibles : si \(\lambda \in \mathrm{Sp}(A)\) avec vecteur propre \(v \neq 0\), alors \(A^2 v = Av\) donne \(\lambda^2 v = \lambda v\), d’où \(\lambda(\lambda – 1) = 0\). Donc \(\mathrm{Sp}(A) \subset \{0, 1\}\).

Diagonalisabilité : le polynôme \(P(X) = X^2 – X = X(X-1)\) annule \(A\) (car \(A^2 – A = 0\)).

Or \(P\) est scindé à racines simples (racines \(0\) et \(1\)). Comme le polynôme minimal \(\mu_A\) divise tout polynôme annulateur, \(\mu_A\) divise \(X(X-1)\) et est donc lui-même scindé à racines simples.

Par le critère du polynôme minimal, \(A\) est diagonalisable, avec valeurs propres dans \(\{0, 1\}\).


Exercice 8 (★★★★) — Soit \(A \in \mathcal{M}_n(\mathbb{C})\) vérifiant \(A^3 = I_n\). Montrer que \(A\) est diagonalisable dans \(\mathcal{M}_n(\mathbb{C})\).

Voir la correction

\(A\) est annulée par \(P(X) = X^3 – 1\). Factorisons sur \(\mathbb{C}\) :

\(X^3 – 1 = (X – 1)(X – j)(X – j^2)\)

où \(j = e^{2i\pi/3}\) est une racine cubique primitive de l’unité.

Le polynôme \(P\) est scindé sur \(\mathbb{C}\) à racines simples (\(1, j, j^2\) sont deux à deux distincts). Le polynôme minimal \(\mu_A\) divise \(P\), donc \(\mu_A\) est également scindé à racines simples.

Par le critère du polynôme minimal, \(A\) est diagonalisable dans \(\mathcal{M}_n(\mathbb{C})\).

De plus, \(\mathrm{Sp}(A) \subset \{1, j, j^2\}\).


Exercice 9 (★★★★ — concours) — Soit \(A \in \mathcal{M}_n(\mathbb{R})\) vérifiant \(A^2 + A + I_n = 0\).

1. Montrer que \(A\) est inversible et exprimer \(A^{-1}\) en fonction de \(A\).

2. \(A\) est-elle diagonalisable sur \(\mathbb{R}\) ? Sur \(\mathbb{C}\) ?

3. En déduire que \(n\) est pair.

Voir la correction

1. De \(A^2 + A + I_n = 0\), on tire \(A(-A – I_n) = I_n\), donc \(A\) est inversible et \(A^{-1} = -A – I_n\).

2. Le polynôme \(P(X) = X^2 + X + 1\) annule \(A\). Son discriminant est \(\Delta = 1 – 4 = -3 \lt 0\), donc \(P\) n’a pas de racine réelle. Les racines sont \(j = e^{2i\pi/3}\) et \(\bar{j} = e^{-2i\pi/3}\).

Puisque le polynôme minimal \(\mu_A\) divise \(P\) et que \(P\) est irréductible sur \(\mathbb{R}\), on a \(\mu_A = P\) (car \(\mu_A \neq 1\) et les seuls diviseurs unitaires de \(P\) sur \(\mathbb{R}\) sont \(1\) et \(P\)). Les valeurs propres de \(A\) sont racines de \(\mu_A\). Or \(\mu_A\) n’a pas de racine réelle : \(A\) n’a pas de valeur propre réelle, donc \(A\) n’est pas diagonalisable sur \(\mathbb{R}\).

Sur \(\mathbb{C}\) : \(P(X) = (X – j)(X – \bar{j})\) est scindé à racines simples. Donc \(\mu_A\) est scindé à racines simples sur \(\mathbb{C}\) : \(A\) est diagonalisable sur \(\mathbb{C}\).

3. Le polynôme caractéristique \(\chi_A \in \mathbb{R}[X]\) est de degré \(n\) et ses racines sont \(j\) et \(\bar{j}\) (seules racines possibles de \(\mu_A\)). Puisque \(\chi_A\) est à coefficients réels, les racines complexes non réelles apparaissent par paires conjuguées. Notons \(p\) la multiplicité de \(j\) et \(q\) celle de \(\bar{j}\) dans \(\chi_A\). Par conjugaison, \(p = q\). Alors \(n = p + q = 2p\), donc \(n\) est pair.


Exercice 10 (★★★★ — concours) — Soient \(A, B \in \mathcal{M}_n(\mathbb{C})\) deux matrices diagonalisables telles que \(AB = BA\). Montrer que \(A\) et \(B\) sont simultanément diagonalisables, c’est-à-dire qu’il existe \(P \in \mathrm{GL}_n(\mathbb{C})\) telle que \(P^{-1}AP\) et \(P^{-1}BP\) soient toutes deux diagonales.

Voir la correction

Étape 1 : les espaces propres de \(A\) sont stables par \(B\).

Soit \(\lambda \in \mathrm{Sp}(A)\) et \(v \in E_\lambda(A)\). Alors \(A(Bv) = B(Av) = B(\lambda v) = \lambda(Bv)\) puisque \(AB = BA\). Donc \(Bv \in E_\lambda(A)\) : l’espace propre \(E_\lambda(A)\) est stable par \(B\).

Étape 2 : restriction de \(B\) à chaque \(E_\lambda(A)\).

Notons \(B_\lambda\) la restriction de \(B\) à \(E_\lambda(A)\) (l’endomorphisme induit). Montrons que \(B_\lambda\) est diagonalisable.

Puisque \(B\) est diagonalisable, son polynôme minimal \(\mu_B\) est scindé à racines simples : \(\mu_B(X) = (X – \mu_1)\cdots(X – \mu_r)\). Comme \(\mu_B(B) = 0\), on a \(\mu_B(B_\lambda) = 0\) par restriction. Le polynôme minimal de \(B_\lambda\) divise \(\mu_B\), qui est scindé à racines simples : \(B_\lambda\) est diagonalisable.

Étape 3 : construction de la base commune.

Pour chaque \(\lambda \in \mathrm{Sp}(A)\), on choisit une base \(\mathcal{B}_\lambda\) de \(E_\lambda(A)\) formée de vecteurs propres de \(B_\lambda\) (c’est possible car \(B_\lambda\) est diagonalisable). Puisque \(A\) est diagonalisable, \(\bigoplus_\lambda E_\lambda(A) = \mathbb{C}^n\). La réunion de toutes les bases \(\mathcal{B}_\lambda\) forme une base \(\mathcal{B}\) de \(\mathbb{C}^n\).

Chaque vecteur de \(\mathcal{B}\) est à la fois vecteur propre de \(A\) (car il appartient à un \(E_\lambda(A)\)) et vecteur propre de \(B\) (par construction). La matrice de passage \(P\) dont les colonnes sont les vecteurs de \(\mathcal{B}\) vérifie donc que \(P^{-1}AP\) et \(P^{-1}BP\) sont diagonales. ■


Exercice 11 (★★★★ — concours) — Soit \(A \in \mathcal{M}_n(\mathbb{C})\) diagonalisable, et \(B \in \mathcal{M}_n(\mathbb{C})\) telle que \(AB – BA = B\).

1. Soit \(\lambda \in \mathrm{Sp}(A)\) et \(v \in E_\lambda(A)\). Montrer que si \(Bv \neq 0\), alors \(Bv\) est vecteur propre de \(A\) pour la valeur propre \(\lambda + 1\).

2. En déduire que \(B\) est nilpotente.

Voir la correction

1. Soit \(v \in E_\lambda(A)\), c’est-à-dire \(Av = \lambda v\). La relation \(AB – BA = B\) donne \(AB = BA + B = B(A + I_n)\). En appliquant à \(v\) :

\(A(Bv) = B(Av) + Bv = B(\lambda v) + Bv = \lambda Bv + Bv = (\lambda + 1)Bv\)

Si \(Bv \neq 0\), alors \(Bv\) est un vecteur propre de \(A\) pour la valeur propre \(\lambda + 1\).

2. Soit \(\lambda \in \mathrm{Sp}(A)\). D’après la question 1, si \(B(E_\lambda) \neq \{0\}\), alors \(\lambda + 1 \in \mathrm{Sp}(A)\). Par récurrence, si \(B^k(E_\lambda) \neq \{0\}\) pour tout \(k\), alors \(\lambda, \lambda+1, \lambda+2, \ldots\) seraient toutes des valeurs propres de \(A\). Or \(A \in \mathcal{M}_n(\mathbb{C})\) n’a qu’un nombre fini de valeurs propres (au plus \(n\)). Contradiction.

Donc pour chaque \(\lambda \in \mathrm{Sp}(A)\), il existe un plus petit entier \(k_\lambda \geq 0\) tel que \(B^{k_\lambda}(E_\lambda) = \{0\}\), ce qui donne \(k_\lambda \leq n – 1\) (car la chaîne \(\lambda, \lambda+1, \ldots\) reste dans \(\mathrm{Sp}(A)\) qui contient au plus \(n\) éléments).

Posons \(N = \max_{\lambda \in \mathrm{Sp}(A)} k_\lambda\). Puisque \(A\) est diagonalisable, \(\mathbb{C}^n = \bigoplus_{\lambda \in \mathrm{Sp}(A)} E_\lambda(A)\). Pour tout \(v \in \mathbb{C}^n\), on décompose \(v = \sum v_\lambda\) avec \(v_\lambda \in E_\lambda\). Montrons que \(B^n v = 0\).

Par le point 1, \(B\) envoie \(E_\lambda\) dans \(E_{\lambda+1}\) (si \(\lambda+1 \in \mathrm{Sp}(A)\)) ou dans \(\{0\}\). En itérant, \(B^n\) envoie \(E_\lambda\) dans \(E_{\lambda+n}\) (ou \(\{0\}\) si la chaîne s’interrompt). Comme \(\mathrm{Sp}(A)\) contient au plus \(n\) éléments, la chaîne \(\lambda, \lambda+1, \ldots, \lambda+n\) contient \(n+1\) termes, donc au moins un n’est pas valeur propre de \(A\) : la chaîne s’interrompt avant d’atteindre \(\lambda + n\).

Ainsi \(B^n(E_\lambda) = \{0\}\) pour tout \(\lambda\), d’où \(B^n = 0\) : \(B\) est nilpotente. ■

Tu veux t’entraîner davantage ? Retrouve nos exercices corrigés sur les matrices.

🎁 EN BONUS

La fiche de synthèse : diagonalisation d’une matrice

Critère CNS, méthode en 5 étapes, polynôme minimal, théorème spectral — tout le cours condensé sur une fiche recto-verso prête à imprimer.

📄 Télécharger la fiche de synthèse

Idéal pour réviser la veille d’un DS ou d’une colle.


VIII. Erreurs fréquentes et pièges de concours

La diagonalisation est un sujet riche en erreurs classiques. Voici les pièges les plus fréquents, avec un exemple de copie fautive commentée.

Piège n°1 — Oublier de vérifier que \(\chi_A\) est scindé sur \(\mathbb{R}\)

La matrice \(R = \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}\) a pour polynôme caractéristique \(\chi_R(X) = X^2 + 1\), qui n’a pas de racine réelle. Cette matrice n’est pas diagonalisable sur \(\mathbb{R}\) (mais elle l’est sur \(\mathbb{C}\), avec \(\mathrm{Sp}(R) = \{i, -i\}\)).

Réflexe : toujours préciser le corps de base \(\mathbb{K}\) dans la conclusion.

Piège n°2 — Confondre \(m_a(\lambda)\) et \(m_g(\lambda)\)

Ce n’est pas parce qu’une valeur propre est double (\(m_a = 2\)) que l’espace propre est de dimension 2. Il faut toujours calculer \(\dim E_\lambda\) pour les valeurs propres multiples.

Piège n°3 — Incohérence entre \(P\) et \(D\) (copie fautive commentée)

Copie fautive : « On diagonalise \(A\). Valeurs propres : \(2\) et \(3\). Vecteurs propres : \(v_1 = \begin{pmatrix} 1 \\ 1 \end{pmatrix}\) pour \(\lambda = 2\) et \(v_2 = \begin{pmatrix} 1 \\ 0 \end{pmatrix}\) pour \(\lambda = 3\). Donc \(P = \begin{pmatrix} 1 & 1 \\ 1 & 0 \end{pmatrix}\) et \(D = \begin{pmatrix} 3 & 0 \\ 0 & 2 \end{pmatrix}\). »

Diagnostic : les colonnes de \(P\) placent \(v_1\) en 1ère colonne (\(\lambda = 2\)) et \(v_2\) en 2ème colonne (\(\lambda = 3\)), mais \(D\) place \(3\) en position (1,1) et \(2\) en position (2,2). L’ordre est inversé.

Correction : \(D = \begin{pmatrix} 2 & 0 \\ 0 & 3 \end{pmatrix}\) (même ordre que les colonnes de \(P\)).

Piège n°4 — Écrire \(A = PDP\) au lieu de \(A = PDP^{-1}\)

La formule correcte est \(A = PDP^{-1}\) (ou de manière équivalente \(D = P^{-1}AP\)). Écrire \(A = PDP\) n’a aucun sens mathématique : \(P\) n’a aucune raison d’être son propre inverse (sauf cas très particulier des matrices orthogonales où \(P^{-1} = P^\top\)).


IX. Questions fréquentes

Comment savoir si une matrice est diagonalisable ?

Tu calcules le polynôme caractéristique, tu vérifies qu’il est scindé sur le corps de base, puis tu calcules la dimension de chaque espace propre. Si pour chaque valeur propre \(\lambda\) la multiplicité géométrique \(\dim E_\lambda\) égale la multiplicité algébrique, la matrice est diagonalisable. Raccourci : si le polynôme caractéristique a \(n\) racines distinctes, c’est immédiat. Autre raccourci : si tu trouves un polynôme annulateur scindé à racines simples, la matrice est diagonalisable.

Quelle est la différence entre diagonalisation et trigonalisation ?

La diagonalisation écrit \(A = PDP^{-1}\) avec \(D\) diagonale. La trigonalisation écrit \(A = PTP^{-1}\) avec \(T\) triangulaire supérieure. Toute matrice dont le polynôme caractéristique est scindé est trigonalisable, mais seules certaines sont diagonalisables. La trigonalisation est donc un outil plus général, utile quand la diagonalisation échoue.

Une matrice non diagonalisable sur R peut-elle l'être sur C ?

Oui. La matrice de rotation \(R = \begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}\) n’est pas diagonalisable sur \(\mathbb{R}\) (son polynôme caractéristique \(X^2 + 1\) n’est pas scindé sur \(\mathbb{R}\)), mais elle est diagonalisable sur \(\mathbb{C}\) avec les valeurs propres \(i\) et \(-i\). Cependant, une matrice non diagonalisable sur \(\mathbb{C}\) ne l’est sur aucun corps : le problème vient alors des multiplicités géométriques, pas du corps de base.

Pourquoi la diagonalisation est-elle utile en pratique ?

Elle simplifie radicalement les calculs : puissances de matrices (\(A^n = PD^nP^{-1}\)), exponentielles, résolution de systèmes différentiels linéaires, étude de suites récurrentes. En dehors des mathématiques pures, elle est utilisée dans l’algorithme PageRank de Google, l’analyse en composantes principales (ACP), la mécanique quantique et la théorie des graphes.

Comment diagonaliser rapidement une matrice 3x3 ?

Quelques astuces pour gagner du temps : (1) si la matrice est triangulaire, les valeurs propres sont les coefficients diagonaux ; (2) utiliser \(\mathrm{Tr}(A) = \sum \lambda_i\) et \(\det A = \prod \lambda_i\) pour deviner les racines de \(\chi_A\) ; (3) pour une matrice symétrique, la diagonalisabilité est garantie, pas besoin de vérifier les dimensions ; (4) vérifier \(AP = PD\) plutôt que de calculer \(P^{-1}\).


X. Pour aller plus loin

Tu maîtrises maintenant la diagonalisation des matrices. Pour approfondir et consolider, voici les ressources les plus utiles du cocon :

Conforme au programme officiel CPGE 2025-2026. Dernière mise à jour : juin 2025.

Logo-excellence-maths
Tu vises les meilleures écoles d'ingénieurs ?
Avec un professeur diplômé de Polytechnique, tu bénéficies d'un suivi exigeant et bienveillant. Méthodes de concours, rigueur de rédaction, confiance retrouvée. Premier cours satisfait ou remboursé.