Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec le niveau d’exigence attendu en classe préparatoire. Découvrir le professeur
Les valeurs propres et les vecteurs propres sont les outils centraux de la réduction des endomorphismes et des matrices. Ils permettent de diagonaliser une matrice, de calculer ses puissances, de résoudre des systèmes différentiels linéaires et de modéliser des phénomènes concrets comme les chaînes de Markov ou l’algorithme PageRank de Google. Ce cours couvre les définitions, le polynôme caractéristique, les propriétés fondamentales et une méthode de calcul systématique, avec 8 exercices corrigés de ★ à ★★★.
I. Définitions fondamentales
A. Valeur propre et vecteur propre
Partons d’une question simple : étant donné une matrice \(A \in \mathcal{M}_n(\mathbb{K})\) (avec \(\mathbb{K} = \mathbb{R}\) ou \(\mathbb{C}\)), existe-t-il des vecteurs non nuls dont l’image par l’application \(X \mapsto AX\) reste colinéaire au vecteur d’origine ? Cette question est la porte d’entrée de toute la théorie de la réduction.
Définition — Valeur propre et vecteur propre
Soit \(A \in \mathcal{M}_n(\mathbb{K})\). Un scalaire \(\lambda \in \mathbb{K}\) est une valeur propre de \(A\) s’il existe un vecteur \(X \in \mathbb{K}^n\), \(X \neq 0\), tel que :
\(AX = \lambda X\)
Un tel vecteur \(X\) est appelé vecteur propre de \(A\) associé à la valeur propre \(\lambda\).
Reformulation fondamentale. L’équation \(AX = \lambda X\) se réécrit \((A – \lambda I_n)X = 0\). Autrement dit :
\(\lambda \text{ est valeur propre de } A \iff \ker(A – \lambda I_n) \neq \{0\} \iff A – \lambda I_n \text{ non inversible}\)
Cette reformulation est essentielle : elle ramène la recherche des valeurs propres à un problème d’inversibilité, donc de déterminant.
Piège classique — Le vecteur nul n’est JAMAIS un vecteur propre.
La définition exige explicitement \(X \neq 0\). Le vecteur nul vérifie \(A \cdot 0 = \lambda \cdot 0\) pour tout \(\lambda\), mais il n’est pas un vecteur propre. En revanche, le scalaire \(0\) peut parfaitement être une valeur propre (c’est le cas si et seulement si \(A\) n’est pas inversible).
Exemple. Soit \(A = \begin{pmatrix} 2 & 1 \\ 0 & 3 \end{pmatrix}\). Montrons que \(\lambda_1 = 2\) et \(\lambda_2 = 3\) sont valeurs propres de \(A\).
• Pour \(\lambda_1 = 2\) : \(A – 2I_2 = \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix}\). On résout \((A – 2I_2)X = 0\) : \(x_2 = 0\), \(x_1\) libre. Le vecteur \(X_1 = \begin{pmatrix} 1 \\ 0 \end{pmatrix}\) convient : \(AX_1 = \begin{pmatrix} 2 \\ 0 \end{pmatrix} = 2X_1\). ✓
• Pour \(\lambda_2 = 3\) : \(A – 3I_2 = \begin{pmatrix} -1 & 1 \\ 0 & 0 \end{pmatrix}\). On résout : \(x_1 = x_2\). Le vecteur \(X_2 = \begin{pmatrix} 1 \\ 1 \end{pmatrix}\) convient : \(AX_2 = \begin{pmatrix} 3 \\ 3 \end{pmatrix} = 3X_2\). ✓
B. Sous-espace propre et spectre
Définition — Sous-espace propre et spectre
Soit \(A \in \mathcal{M}_n(\mathbb{K})\) et \(\lambda\) une valeur propre de \(A\).
- Le sous-espace propre associé à \(\lambda\) est : \(E_\lambda(A) = \ker(A – \lambda I_n) = \{X \in \mathbb{K}^n \mid AX = \lambda X\}\).
- Le spectre de \(A\) est l’ensemble de ses valeurs propres : \(\mathrm{Sp}(A) = \{\lambda \in \mathbb{K} \mid \lambda \text{ est valeur propre de } A\}\).
Proposition. Pour toute valeur propre \(\lambda\) de \(A\), le sous-espace propre \(E_\lambda(A)\) est un sous-espace vectoriel de \(\mathbb{K}^n\) de dimension \(\geq 1\).
Démonstration ⋆. \(E_\lambda(A) = \ker(A – \lambda I_n)\) est le noyau de l’application linéaire \(X \mapsto (A – \lambda I_n)X\), donc c’est un sous-espace vectoriel de \(\mathbb{K}^n\). De plus, \(\lambda\) étant valeur propre, il existe \(X \neq 0\) tel que \(AX = \lambda X\), donc \(E_\lambda(A) \neq \{0\}\) et \(\dim E_\lambda(A) \geq 1\). ■
À retenir. Le sous-espace propre \(E_\lambda(A)\) est l’ensemble de tous les vecteurs propres associés à \(\lambda\), auquel on ajoute le vecteur nul. C’est une structure d’espace vectoriel, alors que l’ensemble des vecteurs propres seul n’en est pas un (il ne contient pas \(0\)).
C. Interprétation géométrique
Géométriquement, un vecteur propre est une direction de l’espace que l’application linéaire \(X \mapsto AX\) préserve : le vecteur est étiré (ou comprimé, ou retourné) mais reste sur la même droite. La valeur propre correspondante est le facteur de dilatation dans cette direction.
Quelques cas particuliers éclairants :
- \(\lambda\) > \(1\) : le vecteur est étiré ;
- \(0\) < \(\lambda\) < \(1\) : le vecteur est comprimé ;
- \(\lambda\) < \(0\) : le vecteur est retourné (et éventuellement étiré/comprimé) ;
- \(\lambda = 0\) : le vecteur est envoyé sur \(0\) (direction du noyau) ;
- \(\lambda = 1\) : le vecteur est fixe (direction invariante point par point).
II. Polynôme caractéristique
La reformulation \(\lambda \in \mathrm{Sp}(A) \iff \det(A – \lambda I_n) = 0\) montre que les valeurs propres sont les racines d’un polynôme. Ce polynôme porte un nom : le polynôme caractéristique.
A. Définition et lien avec les valeurs propres
Définition — Polynôme caractéristique
Soit \(A \in \mathcal{M}_n(\mathbb{K})\). Le polynôme caractéristique de \(A\) est :
\(\chi_A(X) = \det(XI_n – A)\)
C’est un polynôme de degré \(n\), unitaire (coefficient dominant égal à 1).
Convention française. Le programme officiel CPGE définit \(\chi_A(X) = \det(XI_n – A)\) (polynôme unitaire). Certains ouvrages utilisent \(\det(A – XI_n)\), qui diffère d’un facteur \((-1)^n\). Les deux conventions donnent les mêmes racines, donc les mêmes valeurs propres. Vérifie la convention de ton cours et reste cohérent tout au long d’une copie.
Théorème ⋆ (caractérisation spectrale). Soit \(A \in \mathcal{M}_n(\mathbb{K})\) et \(\lambda \in \mathbb{K}\). Alors :
\(\lambda \in \mathrm{Sp}(A) \iff \chi_A(\lambda) = 0\)
Démonstration ⋆.
\(\lambda \in \mathrm{Sp}(A) \iff \ker(A – \lambda I_n) \neq \{0\} \iff A – \lambda I_n \text{ non inversible} \iff \det(A – \lambda I_n) = 0\).
Or \(\det(\lambda I_n – A) = (-1)^n \det(A – \lambda I_n)\), donc \(\det(A – \lambda I_n) = 0 \iff \chi_A(\lambda) = \det(\lambda I_n – A) = 0\). ■
Conséquence immédiate. Une matrice \(A \in \mathcal{M}_n(\mathbb{K})\) possède au plus \(n\) valeurs propres (un polynôme de degré \(n\) admet au plus \(n\) racines). Sur \(\mathbb{C}\), le théorème de d’Alembert-Gauss garantit l’existence d’au moins une valeur propre ; sur \(\mathbb{R}\), le spectre peut être vide (voir les matrices de rotation).
B. Calcul en dimensions 2 et 3
Formule express en dimension 2. Pour \(A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}\) :
\(\chi_A(X) = X^2 – \mathrm{tr}(A) \cdot X + \det(A) = X^2 – (a+d)X + (ad – bc)\)
Les valeurs propres s’obtiennent directement par la formule du discriminant. Cette formule est indispensable : elle évite de développer le déterminant à chaque fois.
Exemple — Calcul du polynôme caractéristique d’une matrice 3×3.
Soit \(A = \begin{pmatrix} 1 & 2 & 0 \\ 0 & 3 & 1 \\ 0 & 0 & 2 \end{pmatrix}\). Comme \(A\) est triangulaire supérieure, le déterminant de \(XI_3 – A\) est le produit des éléments diagonaux :
\(\chi_A(X) = (X – 1)(X – 3)(X – 2)\)
D’où \(\mathrm{Sp}(A) = \{1, 2, 3\}\). Pour une matrice triangulaire, les valeurs propres sont toujours les coefficients diagonaux.
Pour une matrice 3×3 quelconque, on développe \(\det(XI_3 – A)\) selon une ligne ou une colonne. La méthode est identique au calcul d’un déterminant 3×3.
C. Multiplicité algébrique et coefficients
Définition — Multiplicité algébrique
La multiplicité algébrique d’une valeur propre \(\lambda\) de \(A\) est l’ordre de \(\lambda\) comme racine du polynôme caractéristique \(\chi_A\). On la note \(m(\lambda)\) ou \(\alpha(\lambda)\).
Propriétés du polynôme caractéristique. Soit \(A \in \mathcal{M}_n(\mathbb{K})\). On peut écrire :
\(\chi_A(X) = X^n – \mathrm{tr}(A) \cdot X^{n-1} + \cdots + (-1)^n \det(A)\)
En particulier :
- Le coefficient de \(X^{n-1}\) est \(-\mathrm{tr}(A)\).
- Le terme constant est \(\chi_A(0) = \det(-A) = (-1)^n \det(A)\).
- Si \(\chi_A\) est scindé sur \(\mathbb{K}\), on peut écrire \(\chi_A(X) = \prod_{i=1}^{p}(X – \lambda_i)^{m(\lambda_i)}\) avec \(\sum m(\lambda_i) = n\).
Propriété fondamentale ⋆. Deux matrices semblables (i.e. \(B = P^{-1}AP\) pour une matrice inversible \(P\)) ont le même polynôme caractéristique, donc les mêmes valeurs propres avec les mêmes multiplicités algébriques.
Démonstration. \(\det(XI_n – P^{-1}AP) = \det(P^{-1}(XI_n – A)P) = \det(P^{-1}) \det(XI_n – A) \det(P) = \chi_A(X)\). ■
D. Théorème de Cayley-Hamilton
Théorème de Cayley-Hamilton ⋆
Toute matrice \(A \in \mathcal{M}_n(\mathbb{K})\) annule son polynôme caractéristique :
\(\chi_A(A) = 0_n\)
Démonstration (cas diagonalisable) ⋆. Supposons \(A\) diagonalisable : il existe \(P\) inversible et \(D = \mathrm{diag}(\lambda_1, \ldots, \lambda_n)\) telles que \(A = PDP^{-1}\). Alors \(\chi_A(A) = P\chi_A(D)P^{-1}\). Or \(\chi_A(D) = \mathrm{diag}(\chi_A(\lambda_1), \ldots, \chi_A(\lambda_n))\), et chaque \(\lambda_i\) est racine de \(\chi_A\), donc \(\chi_A(\lambda_i) = 0\). Ainsi \(\chi_A(D) = 0_n\) et \(\chi_A(A) = 0_n\). ■
Le cas général (matrice non diagonalisable) se démontre par un argument de densité des matrices diagonalisables ou par calcul direct via la comatrice ; la preuve complète est admise en MPSI/PCSI.
Application de Cayley-Hamilton. Soit \(A = \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}\). On a \(\chi_A(X) = X^2 – 5X – 2\). Par Cayley-Hamilton : \(A^2 – 5A – 2I_2 = 0_2\), d’où :
\(A^2 = 5A + 2I_2\)
Cela permet d’exprimer toute puissance de \(A\) comme polynôme de degré \(\leq 1\) en \(A\), en réduisant itérativement modulo \(\chi_A\).
La fiche de synthèse — Valeurs propres et vecteurs propres
Définitions, polynôme caractéristique, méthode de calcul et pièges à éviter : tout le cours en une fiche PDF recto-verso prête à réviser.
📄 Télécharger la fiche PDFTu auras l’essentiel sous les yeux pour tes DS et tes colles.
III. Propriétés des valeurs propres
A. Trace, déterminant et spectre
Les coefficients extrêmes du polynôme caractéristique fournissent deux relations fondamentales entre les valeurs propres et les invariants classiques d’une matrice.
Théorème ⋆ (relations coefficients-spectre)
Soit \(A \in \mathcal{M}_n(\mathbb{C})\) de valeurs propres \(\lambda_1, \ldots, \lambda_n\) comptées avec multiplicité. Alors :
\(\mathrm{tr}(A) = \lambda_1 + \lambda_2 + \cdots + \lambda_n \qquad \text{et} \qquad \det(A) = \lambda_1 \cdot \lambda_2 \cdots \lambda_n\)
Démonstration. Sur \(\mathbb{C}\), \(\chi_A\) est scindé : \(\chi_A(X) = \prod_{i=1}^{n}(X – \lambda_i)\). En développant, le coefficient de \(X^{n-1}\) vaut \(-(\lambda_1 + \cdots + \lambda_n)\), or c’est aussi \(-\mathrm{tr}(A)\) d’après la section précédente. Le terme constant vaut \(\prod(-\lambda_i) = (-1)^n \prod \lambda_i\), or c’est aussi \((-1)^n \det(A)\). ■
Ces relations sont puissantes en pratique. Elles fournissent un moyen de vérifier un calcul de valeurs propres : la somme doit donner la trace et le produit doit donner le déterminant.
B. Valeurs propres et inversibilité
Théorème ⋆
Soit \(A \in \mathcal{M}_n(\mathbb{K})\). Alors :
\(0 \in \mathrm{Sp}(A) \iff A \text{ non inversible} \iff \det(A) = 0\)
Démonstration ⋆. \(0 \in \mathrm{Sp}(A) \iff \ker(A – 0 \cdot I_n) \neq \{0\} \iff \ker(A) \neq \{0\} \iff A \text{ non inversible}\). ■
Proposition. Si \(A\) est inversible et \(\lambda \in \mathrm{Sp}(A)\), alors \(\lambda \neq 0\) et \(\displaystyle\frac{1}{\lambda} \in \mathrm{Sp}(A^{-1})\).
Démonstration. Soit \(X\) vecteur propre associé à \(\lambda\) : \(AX = \lambda X\). Comme \(A\) est inversible et \(X \neq 0\), on a \(\lambda \neq 0\). En multipliant par \(A^{-1}\) : \(X = \lambda A^{-1}X\), d’où \(A^{-1}X = \displaystyle\frac{1}{\lambda} X\). ■
C. Valeurs propres des matrices particulières
| Type de matrice | Valeurs propres | Référence |
|---|---|---|
| Triangulaire (sup. ou inf.) | Les coefficients diagonaux \(a_{11}, a_{22}, \ldots, a_{nn}\) | Immédiat par développement |
| Diagonale \(\mathrm{diag}(\lambda_1, \ldots, \lambda_n)\) | \(\lambda_1, \ldots, \lambda_n\) | Cas particulier de triangulaire |
| Identité \(I_n\) | Unique VP : \(\lambda = 1\), de multiplicité \(n\) | \(E_1 = \mathbb{K}^n\) |
| Nilpotente | Unique VP : \(\lambda = 0\) | \(\chi_A(X) = X^n\) (Cayley-Hamilton) |
| Symétrique réelle | Toutes réelles | Théorème spectral |
| Orthogonale | De module 1 : \(|\lambda| = 1\) | \(A^T A = I_n\) |
| Matrice de projection (\(A^2 = A\)) | \(\mathrm{Sp}(A) \subset \{0, 1\}\) | Appliquer \(P(X) = X^2 – X\) |
Théorème (valeurs propres réelles des matrices symétriques) ⋆. Toute matrice \(A \in \mathcal{S}_n(\mathbb{R})\) (symétrique réelle) a toutes ses valeurs propres réelles.
Démonstration ⋆. Soit \(\lambda \in \mathbb{C}\) une valeur propre de \(A\) et \(Z \in \mathbb{C}^n \setminus \{0\}\) un vecteur propre associé : \(AZ = \lambda Z\). On prend le produit hermitien \(\overline{Z}^T (AZ) = \lambda \overline{Z}^T Z = \lambda \|Z\|^2\). Par symétrie de \(A\) (à coefficients réels) : \(\overline{Z}^T A Z = (A\overline{Z})^T Z = \overline{\lambda} \overline{Z}^T Z = \overline{\lambda} \|Z\|^2\). Comme \(\|Z\|^2 \neq 0\), on obtient \(\lambda = \overline{\lambda}\), donc \(\lambda \in \mathbb{R}\). ■
D. Spectre et opérations sur les matrices
Théorème ⋆ (spectre d’un polynôme de matrice)
Soit \(A \in \mathcal{M}_n(\mathbb{K})\), \(\lambda \in \mathrm{Sp}(A)\) et \(P \in \mathbb{K}[X]\). Alors :
\(P(\lambda) \in \mathrm{Sp}(P(A))\)
En particulier : \(\lambda^k \in \mathrm{Sp}(A^k)\) pour tout \(k \in \mathbb{N}\), et \(\alpha\lambda + \beta \in \mathrm{Sp}(\alpha A + \beta I_n)\).
Démonstration ⋆. Soit \(X \neq 0\) tel que \(AX = \lambda X\). Par récurrence immédiate, \(A^k X = \lambda^k X\) pour tout \(k \in \mathbb{N}\). Si \(P(X) = \sum_{k=0}^{d} a_k X^k\), alors :
\(P(A)X = \sum_{k=0}^{d} a_k A^k X = \sum_{k=0}^{d} a_k \lambda^k X = P(\lambda) X\)
Comme \(X \neq 0\), le vecteur \(X\) est vecteur propre de \(P(A)\) associé à \(P(\lambda)\). ■
Piège classique — Fausse additivité du spectre.
❌ Copie fautive : « Si \(\lambda \in \mathrm{Sp}(A)\) et \(\mu \in \mathrm{Sp}(B)\), alors \(\lambda + \mu \in \mathrm{Sp}(A+B)\). »
Diagnostic : cette propriété est fausse en général. Elle n’est vraie que si \(A\) et \(B\) sont simultanément diagonalisables (i.e. commutent). Le théorème ci-dessus ne s’applique que pour des polynômes en A, pas pour des sommes de matrices indépendantes. Même constat pour le produit : \(\lambda\mu \in \mathrm{Sp}(AB)\) est faux en général.
E. Indépendance linéaire des vecteurs propres
Ce théorème est l’un des résultats les plus importants du chapitre. Il est à la base du critère de diagonalisation.
Théorème ⋆ (indépendance des vecteurs propres)
Des vecteurs propres d’une matrice \(A\) associés à des valeurs propres deux à deux distinctes forment une famille libre.
Démonstration ⋆ (par récurrence).
Initialisation. Un seul vecteur propre \(X_1 \neq 0\) : la famille \((X_1)\) est libre.
Hérédité. Soient \(X_1, \ldots, X_p\) des vecteurs propres associés à des valeurs propres distinctes \(\lambda_1, \ldots, \lambda_p\). Supposons par hypothèse de récurrence que \((X_1, \ldots, X_{p-1})\) est libre. Soit une combinaison linéaire nulle :
\(\alpha_1 X_1 + \alpha_2 X_2 + \cdots + \alpha_p X_p = 0 \qquad (\star)\)
Appliquons \(A\) à \((\star)\) :
\(\alpha_1 \lambda_1 X_1 + \alpha_2 \lambda_2 X_2 + \cdots + \alpha_p \lambda_p X_p = 0 \qquad (\star\star)\)
Calculons \((\star\star) – \lambda_p \cdot (\star)\) :
\(\alpha_1(\lambda_1 – \lambda_p) X_1 + \alpha_2(\lambda_2 – \lambda_p) X_2 + \cdots + \alpha_{p-1}(\lambda_{p-1} – \lambda_p) X_{p-1} = 0\)
Par hypothèse de récurrence, \((X_1, \ldots, X_{p-1})\) est libre, donc \(\alpha_i(\lambda_i – \lambda_p) = 0\) pour tout \(i \leq p-1\). Comme \(\lambda_i \neq \lambda_p\), on obtient \(\alpha_i = 0\) pour tout \(i \leq p-1\). En reportant dans \((\star)\) : \(\alpha_p X_p = 0\), et comme \(X_p \neq 0\), \(\alpha_p = 0\). La famille \((X_1, \ldots, X_p)\) est libre. ■
Corollaire essentiel.
- Pour toute valeur propre \(\lambda\) : \(1 \leq \dim E_\lambda(A) \leq m(\lambda)\) (la multiplicité géométrique est majorée par la multiplicité algébrique).
- Une matrice \(A \in \mathcal{M}_n(\mathbb{K})\) ayant \(n\) valeurs propres distinctes est diagonalisable.
- Plus généralement, la somme \(\sum_{\lambda \in \mathrm{Sp}(A)} E_\lambda(A)\) est directe, et \(\sum_{\lambda \in \mathrm{Sp}(A)} \dim E_\lambda(A) \leq n\).
IV. Méthode pas à pas — Déterminer les éléments propres
A. Les 3 étapes
Méthode systématique pour déterminer les éléments propres d’une matrice \(A \in \mathcal{M}_n(\mathbb{K})\)
- Calculer \(\chi_A(X) = \det(XI_n – A)\).
- Factoriser \(\chi_A\) et trouver ses racines \(\lambda_1, \ldots, \lambda_p\) (les valeurs propres) avec leurs multiplicités.
- Pour chaque VP \(\lambda_i\), résoudre le système linéaire \((A – \lambda_i I_n)X = 0\) pour déterminer le sous-espace propre \(E_{\lambda_i}(A) = \ker(A – \lambda_i I_n)\).
Vérification systématique : la somme des VP (avec multiplicité) doit valoir \(\mathrm{tr}(A)\) et le produit doit valoir \(\det(A)\).
B. Exemple résolu — Matrice 2×2
Exemple. Déterminer les valeurs propres et sous-espaces propres de \(A = \begin{pmatrix} 4 & 2 \\ 1 & 3 \end{pmatrix}\).
Étape 1. \(\chi_A(X) = X^2 – \mathrm{tr}(A) \cdot X + \det(A) = X^2 – 7X + 10\).
Étape 2. \(\Delta = 49 – 40 = 9\). Racines : \(\lambda_1 = \displaystyle\frac{7 – 3}{2} = 2\) et \(\lambda_2 = \displaystyle\frac{7 + 3}{2} = 5\).
Vérification : \(2 + 5 = 7 = \mathrm{tr}(A)\) ✓, \(2 \times 5 = 10 = \det(A)\) ✓.
Étape 3.
• \(E_2\) : \((A – 2I_2)X = 0 \Rightarrow \begin{pmatrix} 2 & 2 \\ 1 & 1 \end{pmatrix} X = 0 \Rightarrow x_1 + x_2 = 0\). D’où \(E_2 = \mathrm{Vect}\begin{pmatrix} -1 \\ 1 \end{pmatrix}\).
• \(E_5\) : \((A – 5I_2)X = 0 \Rightarrow \begin{pmatrix} -1 & 2 \\ 1 & -2 \end{pmatrix} X = 0 \Rightarrow x_1 = 2x_2\). D’où \(E_5 = \mathrm{Vect}\begin{pmatrix} 2 \\ 1 \end{pmatrix}\).
C. Exemple résolu — Matrice 3×3
Exemple. Déterminer les éléments propres de \(A = \begin{pmatrix} 2 & 1 & 0 \\ 0 & 2 & 1 \\ 0 & 0 & 3 \end{pmatrix}\) et décider si \(A\) est diagonalisable.
Étape 1. \(A\) est triangulaire supérieure, donc \(\chi_A(X) = (X-2)^2(X-3)\).
Étape 2. Valeurs propres : \(\lambda_1 = 2\) (multiplicité algébrique \(m(2) = 2\)) et \(\lambda_2 = 3\) (multiplicité algébrique \(m(3) = 1\)).
Étape 3.
• \(E_2\) : \((A – 2I_3)X = 0 \Rightarrow \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 1 \end{pmatrix} X = 0\). Après échelonnement : \(x_2 = 0\), \(x_3 = 0\), \(x_1\) libre. D’où \(E_2 = \mathrm{Vect}\begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}\) et \(\dim E_2 = 1\).
• \(E_3\) : \((A – 3I_3)X = 0 \Rightarrow \begin{pmatrix} -1 & 1 & 0 \\ 0 & -1 & 1 \\ 0 & 0 & 0 \end{pmatrix} X = 0\). On obtient \(x_2 = x_3\) et \(x_1 = x_2 = x_3\). D’où \(E_3 = \mathrm{Vect}\begin{pmatrix} 1 \\ 1 \\ 1 \end{pmatrix}\) et \(\dim E_3 = 1\).
Conclusion : \(\dim E_2 = 1\) < \(m(2) = 2\). La multiplicité géométrique ne coïncide pas avec la multiplicité algébrique pour \(\lambda = 2\). Donc \(A\) n’est pas diagonalisable.
V. Applications et prolongements
La détermination des éléments propres n’est pas un objectif en soi : c’est un outil au service de problèmes concrets.
A. Diagonalisation
Une matrice \(A \in \mathcal{M}_n(\mathbb{K})\) est diagonalisable si et seulement si \(\mathbb{K}^n = \bigoplus_{\lambda \in \mathrm{Sp}(A)} E_\lambda(A)\), ce qui équivaut à :
\(\chi_A \text{ scindé sur } \mathbb{K} \quad \text{et} \quad \forall \lambda \in \mathrm{Sp}(A),\; \dim E_\lambda(A) = m(\lambda)\)
Dans ce cas, si \(P\) est la matrice dont les colonnes sont les vecteurs propres (formant une base de \(\mathbb{K}^n\)) et \(D = \mathrm{diag}(\lambda_1, \ldots, \lambda_n)\), alors \(A = PDP^{-1}\). Ce résultat est développé en détail dans le cours sur la diagonalisation.
B. Puissances de matrices et suites récurrentes
Si \(A = PDP^{-1}\), alors \(A^k = PD^kP^{-1}\) pour tout \(k \in \mathbb{N}\). Le calcul de \(D^k\) est trivial : \(D^k = \mathrm{diag}(\lambda_1^k, \ldots, \lambda_n^k)\). C’est ce qui rend les puissances de matrices calculables.
Application aux suites récurrentes linéaires. Soit un système \(U_{n+1} = AU_n\) avec \(U_0\) donné. Alors \(U_n = A^n U_0\). Si \(A\) est diagonalisable, \(U_n = PD^n P^{-1}U_0\), ce qui donne une expression explicite de \(U_n\) en fonction de \(n\). Voir l’exercice 7 ci-dessous pour un exemple complet.
C. Chaînes de Markov et distribution stationnaire
Les valeurs propres trouvent une application spectaculaire dans les chaînes de Markov, un modèle fondamental en probabilités et en informatique (c’est notamment le cœur de l’algorithme PageRank de Google).
Une matrice stochastique (ou de transition) est une matrice \(M \in \mathcal{M}_n(\mathbb{R})\) à coefficients positifs dont chaque colonne a pour somme 1. Elle modélise les probabilités de transition entre \(n\) états.
Propriété fondamentale. Toute matrice stochastique \(M\) admet \(1\) comme valeur propre.
Démonstration. Soit \(\mathbf{1} = (1, 1, \ldots, 1)^T\). Puisque chaque colonne de \(M\) somme à 1, on a \(M^T \mathbf{1} = \mathbf{1}\), donc \(1 \in \mathrm{Sp}(M^T) = \mathrm{Sp}(M)\) (car \(M\) et \(M^T\) ont le même polynôme caractéristique). ■
La distribution stationnaire \(\pi\) est le vecteur propre de \(M\) associé à \(\lambda = 1\), normalisé de sorte que ses composantes somment à 1. Elle décrit l’état d’équilibre du système à long terme : \(M^k \pi = \pi\) pour tout \(k\). L’exercice 8 ci-dessous développe un exemple concret.
VI. Exercices corrigés
Voici 8 exercices classés par difficulté croissante, de l’application directe (★) aux problèmes de type concours (★★★). Chaque correction est détaillée pas à pas.
★ Exercice 1 — Valeurs propres et sous-espaces propres d’une matrice 2×2
Déterminer les valeurs propres et les sous-espaces propres de \(A = \begin{pmatrix} 5 & 2 \\ 1 & 4 \end{pmatrix}\).
Voir la correction
Étape 1. \(\chi_A(X) = X^2 – \mathrm{tr}(A) \cdot X + \det(A) = X^2 – 9X + 18 = (X – 3)(X – 6)\).
Étape 2. \(\mathrm{Sp}(A) = \{3, 6\}\). Vérification : \(3 + 6 = 9 = \mathrm{tr}(A)\) ✓, \(3 \times 6 = 18 = \det(A)\) ✓.
Étape 3.
• \(E_3 : (A – 3I_2)X = 0 \Rightarrow \begin{pmatrix} 2 & 2 \\ 1 & 1 \end{pmatrix} X = 0 \Rightarrow x_1 + x_2 = 0\). D’où \(E_3 = \mathrm{Vect}\begin{pmatrix} -1 \\ 1 \end{pmatrix}\).
• \(E_6 : (A – 6I_2)X = 0 \Rightarrow \begin{pmatrix} -1 & 2 \\ 1 & -2 \end{pmatrix} X = 0 \Rightarrow x_1 = 2x_2\). D’où \(E_6 = \mathrm{Vect}\begin{pmatrix} 2 \\ 1 \end{pmatrix}\).
La matrice \(A\) a deux VP distinctes en dimension 2, donc elle est diagonalisable.
★ Exercice 2 — Vérifier qu’un vecteur est vecteur propre
Soit \(A = \begin{pmatrix} 2 & 1 & 1 \\ 0 & 5 & 0 \\ 1 & -1 & 2 \end{pmatrix}\). Montrer que \(X = \begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix}\) est un vecteur propre de \(A\) et préciser la valeur propre associée.
Voir la correction
On calcule \(AX\) directement :
\(AX = \begin{pmatrix} 2 \cdot 1 + 1 \cdot 0 + 1 \cdot 1 \\ 0 \cdot 1 + 5 \cdot 0 + 0 \cdot 1 \\ 1 \cdot 1 + (-1) \cdot 0 + 2 \cdot 1 \end{pmatrix} = \begin{pmatrix} 3 \\ 0 \\ 3 \end{pmatrix} = 3 \begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix} = 3X\)
Comme \(X \neq 0\) et \(AX = 3X\), le vecteur \(X\) est bien un vecteur propre de \(A\) associé à la valeur propre \(\lambda = 3\). ■
★★ Exercice 3 — Éléments propres d’une matrice 3×3 et diagonalisabilité
Soit \(A = \begin{pmatrix} 1 & 1 & 0 \\ 0 & 2 & 1 \\ 0 & 0 & 3 \end{pmatrix}\). Déterminer \(\mathrm{Sp}(A)\), les sous-espaces propres, et dire si \(A\) est diagonalisable.
Voir la correction
Étape 1. \(A\) est triangulaire supérieure, donc \(\chi_A(X) = (X-1)(X-2)(X-3)\).
Étape 2. \(\mathrm{Sp}(A) = \{1, 2, 3\}\) : trois valeurs propres simples.
Étape 3.
• \(E_1 : (A – I_3)X = 0 \Rightarrow \begin{pmatrix} 0 & 1 & 0 \\ 0 & 1 & 1 \\ 0 & 0 & 2 \end{pmatrix} X = 0\). On obtient \(x_3 = 0\), \(x_2 = 0\), \(x_1\) libre. Donc \(E_1 = \mathrm{Vect}\begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}\).
• \(E_2 : (A – 2I_3)X = 0 \Rightarrow \begin{pmatrix} -1 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 1 \end{pmatrix} X = 0\). On obtient \(x_3 = 0\), \(x_1 = x_2\). Donc \(E_2 = \mathrm{Vect}\begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix}\).
• \(E_3 : (A – 3I_3)X = 0 \Rightarrow \begin{pmatrix} -2 & 1 & 0 \\ 0 & -1 & 1 \\ 0 & 0 & 0 \end{pmatrix} X = 0\). On obtient \(x_2 = x_3\) et \(x_1 = \displaystyle\frac{x_2}{2} = \displaystyle\frac{x_3}{2}\). Donc \(E_3 = \mathrm{Vect}\begin{pmatrix} 1 \\ 2 \\ 2 \end{pmatrix}\).
Conclusion : \(A\) admet 3 valeurs propres distinctes en dimension 3, donc \(A\) est diagonalisable. On a \(A = PDP^{-1}\) avec \(P = \begin{pmatrix} 1 & 1 & 1 \\ 0 & 1 & 2 \\ 0 & 0 & 2 \end{pmatrix}\) et \(D = \mathrm{diag}(1, 2, 3)\).
★★ Exercice 4 — Valeur propre nulle et inversibilité
Soit \(A = \begin{pmatrix} 2 & 1 & -1 \\ 4 & 2 & -2 \\ 1 & 3 & 0 \end{pmatrix}\).
- Calculer \(\det(A)\).
- En déduire que \(0 \in \mathrm{Sp}(A)\).
- Déterminer \(E_0(A)\).
Voir la correction
1. En développant selon la première ligne :
\(\det(A) = 2(2 \cdot 0 – (-2) \cdot 3) – 1(4 \cdot 0 – (-2) \cdot 1) + (-1)(4 \cdot 3 – 2 \cdot 1) = 12 – 2 – 10 = 0\)
2. \(\det(A) = 0\), donc \(A\) n’est pas inversible, d’où \(0 \in \mathrm{Sp}(A)\).
3. On résout \(AX = 0\) :
\(\begin{pmatrix} 2 & 1 & -1 \\ 4 & 2 & -2 \\ 1 & 3 & 0 \end{pmatrix} \overset{L_2 \leftarrow L_2 – 2L_1}{\longrightarrow} \begin{pmatrix} 2 & 1 & -1 \\ 0 & 0 & 0 \\ 1 & 3 & 0 \end{pmatrix} \overset{L_3 \leftarrow 2L_3 – L_1}{\longrightarrow} \begin{pmatrix} 2 & 1 & -1 \\ 0 & 0 & 0 \\ 0 & 5 & 1 \end{pmatrix}\)De la troisième ligne : \(5x_2 + x_3 = 0\), soit \(x_3 = -5x_2\). De la première : \(2x_1 + x_2 – x_3 = 0\), soit \(2x_1 + x_2 + 5x_2 = 0\), d’où \(x_1 = -3x_2\).
\(E_0(A) = \mathrm{Vect}\begin{pmatrix} -3 \\ 1 \\ -5 \end{pmatrix}\)
★★ Exercice 5 — Spectre d’un polynôme de matrice
Soit \(A \in \mathcal{M}_n(\mathbb{R})\) telle que \(\mathrm{Sp}(A) = \{2, -1, 5\}\). Déterminer \(\mathrm{Sp}(A^2 – 3A + I_n)\).
Voir la correction
Posons \(P(X) = X^2 – 3X + 1\). D’après le théorème sur le spectre d’un polynôme de matrice, les valeurs propres de \(P(A)\) sont les \(P(\lambda)\) pour \(\lambda \in \mathrm{Sp}(A)\).
Calculons :
- \(P(2) = 4 – 6 + 1 = -1\)
- \(P(-1) = 1 + 3 + 1 = 5\)
- \(P(5) = 25 – 15 + 1 = 11\)
D’où \(\mathrm{Sp}(A^2 – 3A + I_n) = \{-1, 5, 11\}\).
Remarque : on peut affirmer que ces valeurs sont bien des VP de \(P(A)\) (par le théorème), mais \(P(A)\) pourrait éventuellement avoir d’autres VP si \(n\) > \(3\). L’énoncé ne dit pas que \(\mathrm{Sp}(A)\) n’a que 3 éléments sur un espace de dimension 3 ; il dit que ces 3 éléments sont les VP, mais sans préciser \(n\) ni les multiplicités. Si \(n = 3\) et les VP sont simples, alors \(\mathrm{Sp}(P(A)) = \{-1, 5, 11\}\).
★★★ Exercice 6 — Valeurs propres et paramètre (type concours)
Soit \(a \in \mathbb{R}\) et \(A(a) = \begin{pmatrix} 1 & a & 0 \\ 0 & 2 & a \\ 0 & 0 & 1 \end{pmatrix}\).
- Déterminer \(\mathrm{Sp}(A(a))\) en fonction de \(a\).
- Pour quelles valeurs de \(a\) la matrice \(A(a)\) est-elle diagonalisable ?
Voir la correction
1. \(A(a)\) est triangulaire supérieure, donc \(\chi_{A(a)}(X) = (X-1)^2(X-2)\) quel que soit \(a\). Les valeurs propres sont \(\lambda_1 = 1\) (multiplicité algébrique 2) et \(\lambda_2 = 2\) (multiplicité algébrique 1).
2. La VP \(\lambda_2 = 2\) est simple, donc \(\dim E_2 = 1 = m(2)\) : pas de problème pour cette VP. La question se joue sur \(\lambda_1 = 1\) : on a besoin de \(\dim E_1 = 2 = m(1)\).
Calculons \(E_1\) : \((A(a) – I_3)X = 0 \Rightarrow \begin{pmatrix} 0 & a & 0 \\ 0 & 1 & a \\ 0 & 0 & 0 \end{pmatrix} X = 0\).
Cas \(a \neq 0\) : la sous-matrice \(\begin{pmatrix} a & 0 \\ 1 & a \end{pmatrix}\) (colonnes 2 et 3) a un déterminant \(a^2 \neq 0\), donc le rang est 2. Le noyau est de dimension \(3 – 2 = 1\). On a \(\dim E_1 = 1\) < \(m(1) = 2\) : \(A(a)\) n’est pas diagonalisable.
Cas \(a = 0\) : \(A(0) – I_3 = \begin{pmatrix} 0 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 0 \end{pmatrix}\), de rang 1. Le noyau est de dimension 2 : \(E_1 = \mathrm{Vect}\left(\begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}, \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}\right)\). On a \(\dim E_1 = 2 = m(1)\) : \(A(0)\) est diagonalisable.
Conclusion. \(A(a)\) est diagonalisable si et seulement si \(a = 0\). Dans ce cas, \(A(0) = \mathrm{diag}(1, 2, 1)\), qui est déjà diagonale.
★★★ Exercice 7 — Suite récurrente matricielle
Soit \((u_n)_{n \in \mathbb{N}}\) et \((v_n)_{n \in \mathbb{N}}\) deux suites réelles vérifiant :
\(\begin{cases} u_{n+1} = 3u_n + v_n \\ v_{n+1} = u_n + 3v_n \end{cases} \quad \text{avec } u_0 = 1,\; v_0 = 0\)
Exprimer \(u_n\) et \(v_n\) en fonction de \(n\).
Voir la correction
Mise en forme matricielle. Posons \(U_n = \begin{pmatrix} u_n \\ v_n \end{pmatrix}\) et \(A = \begin{pmatrix} 3 & 1 \\ 1 & 3 \end{pmatrix}\). Le système s’écrit \(U_{n+1} = AU_n\), d’où \(U_n = A^n U_0\).
Diagonalisation de A. \(\chi_A(X) = X^2 – 6X + 8 = (X-2)(X-4)\). Valeurs propres : \(\lambda_1 = 2\), \(\lambda_2 = 4\).
• \(E_2 : (A – 2I)X = 0 \Rightarrow \begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} X = 0 \Rightarrow x_1 + x_2 = 0\). D’où \(E_2 = \mathrm{Vect}\begin{pmatrix} -1 \\ 1 \end{pmatrix}\).
• \(E_4 : (A – 4I)X = 0 \Rightarrow \begin{pmatrix} -1 & 1 \\ 1 & -1 \end{pmatrix} X = 0 \Rightarrow x_1 = x_2\). D’où \(E_4 = \mathrm{Vect}\begin{pmatrix} 1 \\ 1 \end{pmatrix}\).
On pose \(P = \begin{pmatrix} -1 & 1 \\ 1 & 1 \end{pmatrix}\) et \(D = \begin{pmatrix} 2 & 0 \\ 0 & 4 \end{pmatrix}\). Alors \(A = PDP^{-1}\).
Calcul de \(P^{-1}\). \(\det(P) = -1 – 1 = -2\), donc \(P^{-1} = \displaystyle\frac{1}{-2}\begin{pmatrix} 1 & -1 \\ -1 & -1 \end{pmatrix} = \begin{pmatrix} -\displaystyle\frac{1}{2} & \displaystyle\frac{1}{2} \\ \displaystyle\frac{1}{2} & \displaystyle\frac{1}{2} \end{pmatrix}\).
Expression de \(U_n\).
\(U_n = PD^nP^{-1}U_0 = P \begin{pmatrix} 2^n & 0 \\ 0 & 4^n \end{pmatrix} \begin{pmatrix} -\displaystyle\frac{1}{2} \\ \displaystyle\frac{1}{2} \end{pmatrix} = P \begin{pmatrix} -\displaystyle\frac{2^n}{2} \\ \displaystyle\frac{4^n}{2} \end{pmatrix}\)
\(U_n = \begin{pmatrix} -1 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} -\displaystyle\frac{2^n}{2} \\ \displaystyle\frac{4^n}{2} \end{pmatrix} = \begin{pmatrix} \displaystyle\frac{2^n + 4^n}{2} \\ \displaystyle\frac{-2^n + 4^n}{2} \end{pmatrix}\)
Résultat :
\(\fbox{u_n = \displaystyle\frac{2^n + 4^n}{2}} \qquad \text{et} \qquad \fbox{v_n = \displaystyle\frac{4^n – 2^n}{2}}\)
Vérification : \(u_0 = \displaystyle\frac{1 + 1}{2} = 1\) ✓, \(v_0 = \displaystyle\frac{1 – 1}{2} = 0\) ✓, \(u_1 = \displaystyle\frac{2 + 4}{2} = 3 = 3 \cdot 1 + 0\) ✓.
★★★ Exercice 8 — Chaîne de Markov et distribution stationnaire
On modélise la météo d’une ville par une chaîne de Markov à deux états : Beau (B) et Pluie (P). La matrice de transition est :
\(M = \begin{pmatrix} 0{,}7 & 0{,}4 \\ 0{,}3 & 0{,}6 \end{pmatrix}\)
(la colonne \(j\) donne les probabilités de transition depuis l’état \(j\)).
- Vérifier que \(1\) est valeur propre de \(M\). Déterminer l’autre valeur propre.
- Déterminer le sous-espace propre \(E_1(M)\).
- En déduire la distribution stationnaire \(\pi\) et l’interpréter.
Voir la correction
1. \(\mathrm{tr}(M) = 1{,}3\) et \(\det(M) = 0{,}42 – 0{,}12 = 0{,}3\). Donc \(\chi_M(X) = X^2 – 1{,}3X + 0{,}3 = (X – 1)(X – 0{,}3)\).
Les valeurs propres sont \(\lambda_1 = 1\) et \(\lambda_2 = 0{,}3\). Vérification : \(1 + 0{,}3 = 1{,}3 = \mathrm{tr}(M)\) ✓, \(1 \times 0{,}3 = 0{,}3 = \det(M)\) ✓.
2. \(E_1 : (M – I_2)X = 0 \Rightarrow \begin{pmatrix} -0{,}3 & 0{,}4 \\ 0{,}3 & -0{,}4 \end{pmatrix}X = 0 \Rightarrow -0{,}3x_1 + 0{,}4x_2 = 0 \Rightarrow x_1 = \displaystyle\frac{4}{3}x_2\).
D’où \(E_1(M) = \mathrm{Vect}\begin{pmatrix} 4 \\ 3 \end{pmatrix}\).
3. La distribution stationnaire \(\pi\) est le vecteur propre associé à \(\lambda = 1\) dont les composantes somment à 1 : \(\pi = \displaystyle\frac{1}{4+3}\begin{pmatrix} 4 \\ 3 \end{pmatrix} = \begin{pmatrix} \displaystyle\frac{4}{7} \\ \displaystyle\frac{3}{7} \end{pmatrix}\).
Interprétation : à long terme, la probabilité qu’il fasse beau un jour donné converge vers \(\displaystyle\frac{4}{7} \approx 57\%\), et la probabilité de pluie vers \(\displaystyle\frac{3}{7} \approx 43\%\), indépendamment de la météo initiale. En effet, \(|\lambda_2| = 0{,}3\) < \(1\), donc la composante associée à \(\lambda_2\) s’amortit exponentiellement : \(M^n U_0 \longrightarrow[n \to +\infty]{} \pi\).
📄 L’essentiel du cours en 1 page
VII. Erreurs fréquentes et pièges classiques
Voici les erreurs les plus courantes en DS et aux concours, présentées sous forme de « copie fautive commentée ».
Erreur 1 — Le vecteur nul comme vecteur propre
❌ Copie fautive : « Le vecteur nul est vecteur propre de toute matrice, associé à n’importe quelle valeur propre. »
Diagnostic : la définition exige \(X \neq 0\). Le vecteur nul vérifie \(AX = \lambda X\) trivialement, mais il n’est pas un vecteur propre. C’est la raison pour laquelle le sous-espace propre \(E_\lambda\) contient le vecteur nul sans que celui-ci soit un vecteur propre.
✅ Correction : « Seuls les vecteurs non nuls de \(E_\lambda(A)\) sont des vecteurs propres. »
Erreur 2 — Confondre multiplicité algébrique et géométrique
❌ Copie fautive : « \(\chi_A\) est scindé, donc \(A\) est diagonalisable. »
Diagnostic : le fait que \(\chi_A\) soit scindé est une condition nécessaire mais pas suffisante pour la diagonalisabilité (sur \(\mathbb{R}\)). Il faut aussi vérifier que \(\dim E_\lambda = m(\lambda)\) pour chaque valeur propre. L’exercice 6 ci-dessus en fournit un contre-exemple concret.
✅ Correction : « \(A\) diagonalisable \(\iff\) \(\chi_A\) scindé ET \(\forall \lambda \in \mathrm{Sp}(A), \dim E_\lambda = m(\lambda)\). »
Erreur 3 — Additivité du spectre pour la somme de matrices
❌ Copie fautive : « \(\mathrm{Sp}(A + B) = \{\lambda + \mu \mid \lambda \in \mathrm{Sp}(A), \mu \in \mathrm{Sp}(B)\}\). »
Diagnostic : c’est faux dès que \(A\) et \(B\) ne commutent pas. Le théorème spectral ne fonctionne que pour des polynômes en une même matrice \(A\). Contre-exemple : \(A = \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix}\) et \(B = \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}\). \(\mathrm{Sp}(A) = \{0, 1\}\), \(\mathrm{Sp}(B) = \{0\}\), mais \(\mathrm{Sp}(A+B) = \mathrm{Sp}\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} = \{0, 1\} \neq \{0+0, 1+0\}\) (même ensemble ici par coïncidence, mais les vecteurs propres changent).
✅ Correction : n’utiliser \(\mathrm{Sp}(P(A)) = \{P(\lambda) \mid \lambda \in \mathrm{Sp}(A)\}\) que pour des polynômes en \(A\).
Erreur 4 — Oublier de vérifier « χ_A scindé » sur ℝ
❌ Copie fautive : « \(A \in \mathcal{M}_2(\mathbb{R})\), \(\chi_A(X) = X^2 + 1\). Les valeurs propres sont \(i\) et \(-i\), donc \(A\) est diagonalisable. »
Diagnostic : \(\chi_A\) n’est pas scindé sur \(\mathbb{R}\) : il n’a pas de racine réelle. La matrice \(A\) n’a pas de valeur propre dans \(\mathbb{R}\) et n’est pas diagonalisable dans \(\mathcal{M}_2(\mathbb{R})\). Elle est diagonalisable dans \(\mathcal{M}_2(\mathbb{C})\).
✅ Correction : toujours préciser le corps de base. Sur \(\mathbb{R}\), une matrice de rotation d’angle \(\displaystyle\frac{\pi}{2}\) n’a pas de valeur propre réelle.
VIII. Questions fréquentes
Comment déterminer les valeurs propres d'une matrice ?
On calcule le polynôme caractéristique \(\chi_A(X) = \det(XI_n – A)\), puis on factorise ce polynôme pour trouver ses racines. Chaque racine est une valeur propre. En dimension 2, on utilise la formule \(\chi_A(X) = X^2 – \mathrm{tr}(A) \cdot X + \det(A)\) et le discriminant. En dimension 3, on développe le déterminant puis on cherche une racine évidente.
C'est quoi une valeur propre en maths ?
Une valeur propre \(\lambda\) d’une matrice \(A\) est un scalaire tel qu’il existe un vecteur non nul \(X\) vérifiant \(AX = \lambda X\). Géométriquement, c’est un facteur de dilatation dans une direction que l’application linéaire associée à \(A\) préserve. Les valeurs propres sont les racines du polynôme caractéristique de la matrice.
Quand est-ce que 0 est valeur propre d'une matrice ?
Le scalaire \(0\) est valeur propre de \(A\) si et seulement si \(A\) n’est pas inversible, c’est-à-dire si \(\det(A) = 0\). En effet, \(0 \in \mathrm{Sp}(A) \iff \ker(A) \neq \{0\}\). C’est un critère rapide et très utile en pratique.
Comment déterminer si les valeurs propres d'une matrice sont réelles ?
Le théorème spectral garantit que toute matrice symétrique réelle a toutes ses valeurs propres réelles. Plus généralement, on calcule le discriminant du polynôme caractéristique : si \(\Delta \geq 0\) (en dimension 2), les VP sont réelles. Sur \(\mathbb{C}\), toute matrice admet des valeurs propres (théorème de d’Alembert-Gauss).
Quelle est la différence entre valeur propre et vecteur propre ?
La valeur propre est un scalaire \(\lambda\) ; le vecteur propre est un vecteur non nul \(X\) tel que \(AX = \lambda X\). À une même valeur propre peuvent être associés plusieurs vecteurs propres (formant, avec le vecteur nul, le sous-espace propre \(E_\lambda\)). Inversement, un vecteur propre est toujours associé à une unique valeur propre.
Quelle est la différence entre diagonalisation et calcul des valeurs propres ?
Le calcul des valeurs propres (et des sous-espaces propres) est une étape de la diagonalisation. Diagonaliser une matrice \(A\) consiste à trouver \(P\) inversible et \(D\) diagonale telles que \(A = PDP^{-1}\). Cela nécessite d’abord de trouver les valeurs propres (éléments de \(D\)) et les vecteurs propres (colonnes de \(P\)), puis de vérifier que la matrice est effectivement diagonalisable.
IX. Pour aller plus loin
Tu maîtrises maintenant les valeurs propres, vecteurs propres et le polynôme caractéristique. Pour approfondir et compléter ta maîtrise de l’algèbre linéaire :
- Diagonalisation d’une matrice : méthode complète — le prolongement naturel de ce cours
- Matrice puissance (Aⁿ) — l’application directe de la diagonalisation
- Déterminant d’une matrice : calcul, propriétés et applications — l’outil de calcul du polynôme caractéristique
- Trace d’une matrice : définition, calcul et propriétés — le lien trace = somme des VP
- Matrice inversible : définition, critères et déterminant — le lien 0 ∈ Sp(A) ⟺ A non inversible
- Matrice symétrique et antisymétrique — le théorème spectral réel
- Matrice nilpotente : définition et propriétés — le cas extrême Sp(A) = {0}
- Matrice de changement de base — le lien avec les matrices semblables
- Exercices corrigés sur les matrices — pour t’entraîner davantage sur tout le chapitre
Conforme au programme officiel CPGE 2025-2026. Dernière mise à jour : juin 2025.