Voici 20 exercices d’applications linéaires classés par difficulté croissante, conçus pour la prépa scientifique (MPSI, PCSI, MP, PC, PSI). Chaque exercice est corrigé pas à pas avec le niveau de rigueur attendu en DS et aux concours.
Les thèmes couverts : vérification de linéarité, noyau et image, théorème du rang, matrice d’une application linéaire, changement de base, projecteurs et symétries. Les exercices vont de l’application directe (★) aux problèmes de type X/Mines/Centrale (★★★★★). Un PDF téléchargeable regroupe des exercices supplémentaires.
Légende des difficultés
- ★–★★ : Application directe (type colle) — ~10 min
- ★★★ : Approfondissement (type DS) — ~20 min
- ★★★★–★★★★★ : Synthèse et concours (X, Mines, Centrale) — ~30–45 min
- I : Exercice incontournable — à maîtriser impérativement
Rappel des résultats essentiels
Définition — Application linéaire
Soient \(E\) et \(F\) deux \(\mathbb{K}\)-espaces vectoriels. Une application \(f : E \to F\) est linéaire si et seulement si :
\(\forall (u, v) \in E^2,\; \forall (\lambda, \mu) \in \mathbb{K}^2, \quad f(\lambda u + \mu v) = \lambda f(u) + \mu f(v)\)
Noyau et image
\(\ker f = \{x \in E \mid f(x) = 0_F\}\) est un sous-espace vectoriel de \(E\).
\(\mathrm{Im}\, f = \{f(x) \mid x \in E\}\) est un sous-espace vectoriel de \(F\).
\(f\) injective \(\Leftrightarrow \ker f = \{0_E\}\). Si \(E\) et \(F\) sont de même dimension finie : \(f\) injective \(\Leftrightarrow\) surjective \(\Leftrightarrow\) bijective.
Théorème du rang
Si \(E\) est de dimension finie : \(\dim E = \dim \ker f + \mathrm{rg}\, f\) où \(\mathrm{rg}\, f = \dim \mathrm{Im}\, f\).
Matrice dans une base et changement de base
Soient \(\mathcal{B}\) une base de \(E\) et \(\mathcal{B}^\prime\) une base de \(F\). La matrice \(\mathrm{Mat}_{\mathcal{B}, \mathcal{B}^\prime}(f)\) a pour \(j\)-ème colonne les coordonnées de \(f(e_j)\) dans \(\mathcal{B}^\prime\).
Changement de base (endomorphisme) : si \(P\) est la matrice de passage de \(\mathcal{B}\) à \(\mathcal{B}_1\), alors \(\mathrm{Mat}_{\mathcal{B}_1}(f) = P^{-1} \mathrm{Mat}_{\mathcal{B}}(f)\, P\).
Projecteur et symétrie
\(p \in \mathcal{L}(E)\) est un projecteur si \(p^2 = p\). On a alors \(E = \ker p \oplus \mathrm{Im}\, p\).
\(s \in \mathcal{L}(E)\) est une symétrie si \(s^2 = \mathrm{Id}\). On a \(s = 2p – \mathrm{Id}\) où \(p\) est le projecteur associé.
Exercices d’application directe (★–★★)
Exercice 1 ★ I — Vérifier la linéarité
Soit \(f : \mathbb{R}^3 \to \mathbb{R}^2\) définie par \(f(x, y, z) = (2x – y,\; x + 3z)\).
Montrer que \(f\) est une application linéaire.
Voir la correction
Soient \(u = (x_1, y_1, z_1)\), \(v = (x_2, y_2, z_2) \in \mathbb{R}^3\) et \(\lambda, \mu \in \mathbb{R}\).
\(f(\lambda u + \mu v) = f(\lambda x_1 + \mu x_2,\; \lambda y_1 + \mu y_2,\; \lambda z_1 + \mu z_2)\) \(= \bigl(2(\lambda x_1 + \mu x_2) – (\lambda y_1 + \mu y_2),\; (\lambda x_1 + \mu x_2) + 3(\lambda z_1 + \mu z_2)\bigr)\) \(= \lambda(2x_1 – y_1,\; x_1 + 3z_1) + \mu(2x_2 – y_2,\; x_2 + 3z_2) = \lambda f(u) + \mu f(v)\)Donc \(f\) est linéaire. ∎
Exercice 2 ★ I — Noyau, image et théorème du rang
On reprend \(f : \mathbb{R}^3 \to \mathbb{R}^2\) définie par \(f(x, y, z) = (2x – y,\; x + 3z)\).
- Déterminer \(\ker f\) et en donner une base.
- Déterminer \(\mathrm{Im}\, f\) et sa dimension.
- Vérifier le théorème du rang.
Voir la correction
1. On résout \(f(x,y,z) = (0,0)\) :
\(\begin{cases} 2x – y = 0 \\ x + 3z = 0 \end{cases} \Rightarrow y = 2x,\; x = -3z\)On paramètre par \(z\) : \((x,y,z) = (-3z, -6z, z) = z(-3, -6, 1)\).
Donc \(\ker f = \mathrm{Vect}\bigl((-3, -6, 1)\bigr)\), de dimension 1.
2. On calcule les images des vecteurs de la base canonique :
\(f(1,0,0) = (2,1), \quad f(0,1,0) = (-1,0), \quad f(0,0,1) = (0,3)\)\((2,1)\) et \((-1,0)\) sont non colinéaires, donc \(\mathrm{Im}\, f = \mathbb{R}^2\), de dimension 2.
3. \(\dim \ker f + \dim \mathrm{Im}\, f = 1 + 2 = 3 = \dim \mathbb{R}^3\). ✓
Exercice 3 ★★ — Matrice dans les bases canoniques
Soit \(f : \mathbb{R}^3 \to \mathbb{R}^2\) définie par \(f(x,y,z) = (x + 2y – z,\; 3x – y + 4z)\).
Écrire la matrice de \(f\) dans les bases canoniques de \(\mathbb{R}^3\) et \(\mathbb{R}^2\).
Voir la correction
Les colonnes de la matrice sont les images des vecteurs de la base canonique :
\(f(e_1) = (1,3), \quad f(e_2) = (2,-1), \quad f(e_3) = (-1,4)\) \(\mathrm{Mat}(f) = \begin{pmatrix} 1 & 2 & -1 \\ 3 & -1 & 4 \end{pmatrix}\)+15 exercices corrigés sur les applications linéaires (PDF)
Noyau, image, changement de base, projecteurs — avec corrections détaillées et astuces de rédaction pour les concours.
📄 Télécharger le PDF gratuitIdéal pour préparer tes colles et DS d’algèbre linéaire.
Exercice 4 ★★ — Dérivation comme application linéaire
Soit \(D : \mathbb{R}_2[X] \to \mathbb{R}_2[X]\) l’opérateur de dérivation : \(D(P) = P^\prime\).
- Justifier que \(D\) est un endomorphisme de \(\mathbb{R}_2[X]\).
- Écrire la matrice de \(D\) dans la base \(\mathcal{B} = (1, X, X^2)\).
- Déterminer \(\ker D\) et \(\mathrm{Im}\, D\).
Voir la correction
1. La dérivation est linéaire : \((\lambda P + \mu Q)^\prime = \lambda P^\prime + \mu Q^\prime\). De plus, si \(\deg P \leq 2\), alors \(\deg P^\prime \leq 1 \leq 2\), donc \(D(P) \in \mathbb{R}_2[X]\).
2. \(D(1) = 0, \quad D(X) = 1, \quad D(X^2) = 2X\)
\(\mathrm{Mat}_\mathcal{B}(D) = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 2 \\ 0 & 0 & 0 \end{pmatrix}\)3. \(\ker D = \{P \in \mathbb{R}_2[X] \mid P^\prime = 0\}\) = polynômes constants = \(\mathrm{Vect}(1)\), \(\dim \ker D = 1\).
\(\mathrm{Im}\, D = \mathrm{Vect}(0, 1, 2X) = \mathrm{Vect}(1, X) = \mathbb{R}_1[X]\), \(\dim \mathrm{Im}\, D = 2\).
Théorème du rang : \(1 + 2 = 3 = \dim \mathbb{R}_2[X]\). ✓
Exercice 5 ★★ — Noyau et image à partir d’une matrice
Soit \(f\) l’endomorphisme de \(\mathbb{R}^3\) dont la matrice dans la base canonique est :
\(A = \begin{pmatrix} 1 & 2 & -1 \\ 2 & 4 & -2 \\ 3 & 6 & -3 \end{pmatrix}\)- Déterminer \(\ker f\) et en donner une base.
- Déterminer une base de \(\mathrm{Im}\, f\).
- Vérifier le théorème du rang.
Voir la correction
1. On échelonne \(A\) : \(L_2 \leftarrow L_2 – 2L_1\), \(L_3 \leftarrow L_3 – 3L_1\) :
\(\begin{pmatrix} 1 & 2 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}\)Pivot en colonne 1, variables libres \(y\) et \(z\). On obtient \(x = -2y + z\).
\(\ker f = \{(-2y+z,\, y,\, z) \mid y, z \in \mathbb{R}\} = \mathrm{Vect}\bigl((-2,1,0),\; (1,0,1)\bigr)\), \(\dim \ker f = 2\).
2. Les trois colonnes de \(A\) sont proportionnelles à \((1,2,3)\) :
\(\mathrm{Im}\, f = \mathrm{Vect}\bigl((1,2,3)\bigr)\), \(\dim \mathrm{Im}\, f = 1\).
3. \(2 + 1 = 3 = \dim \mathbb{R}^3\). ✓
Exercice 6 ★★ — Calcul d’images et bijectivité
Soit \(f : \mathbb{R}^3 \to \mathbb{R}^3\) l’application linéaire telle que :
\(f(1,0,0) = (1,1,0), \quad f(0,1,0) = (0,1,1), \quad f(0,0,1) = (1,0,1)\)- Calculer \(f(2,-1,3)\).
- \(f\) est-elle bijective ?
Voir la correction
1. Par linéarité :
\(f(2,-1,3) = 2(1,1,0) – (0,1,1) + 3(1,0,1) = (2+0+3,\; 2-1+0,\; 0-1+3) = (5,1,2)\)2. La matrice de \(f\) dans la base canonique est \(A = \begin{pmatrix} 1 & 0 & 1 \\ 1 & 1 & 0 \\ 0 & 1 & 1 \end{pmatrix}\).
\(\det A = 1(1-0) – 0 + 1(1-0) = 2 \neq 0\).
Donc \(f\) est bijective.
Exercice 7 ★★ I — Projecteur : vérification et caractérisation
Soit \(p : \mathbb{R}^2 \to \mathbb{R}^2\) définie par \(p(x,y) = \left(\displaystyle\frac{x+y}{2},\; \displaystyle\frac{x+y}{2}\right)\).
- Calculer \(p \circ p\). Qu’en déduit-on ?
- Déterminer \(\ker p\) et \(\mathrm{Im}\, p\).
- Vérifier que \(\mathbb{R}^2 = \ker p \oplus \mathrm{Im}\, p\).
Voir la correction
1. Posons \(s = \displaystyle\frac{x+y}{2}\). Alors \(p(x,y) = (s, s)\) et :
\(p(p(x,y)) = p(s, s) = \left(\displaystyle\frac{s+s}{2},\; \displaystyle\frac{s+s}{2}\right) = (s, s) = p(x,y)\)Donc \(p^2 = p\) : \(p\) est un projecteur.
2. \(\ker p = \{(x,y) \mid x + y = 0\} = \mathrm{Vect}\bigl((1,-1)\bigr)\).
\(\mathrm{Im}\, p = \{(t,t) \mid t \in \mathbb{R}\} = \mathrm{Vect}\bigl((1,1)\bigr)\).
3. \((1,-1)\) et \((1,1)\) ne sont pas colinéaires, donc \(\ker p \cap \mathrm{Im}\, p = \{0\}\) et \(\dim \ker p + \dim \mathrm{Im}\, p = 2 = \dim \mathbb{R}^2\). Ainsi \(\mathbb{R}^2 = \ker p \oplus \mathrm{Im}\, p\). ✓
Point méthode : \(p\) est la projection sur \(\mathrm{Vect}((1,1))\) parallèlement à \(\mathrm{Vect}((1,-1))\). Géométriquement, \(p\) projette tout vecteur sur la droite \(y = x\) selon la direction \(y = -x\).
Exercices d’approfondissement (★★★)
Exercice 8 ★★★ — Matrice dans une base non canonique
Soit \(f : \mathbb{R}^2 \to \mathbb{R}^2\) définie par \(f(x,y) = (3x – y,\; x + y)\).
On pose \(\mathcal{B}^\prime = \bigl((1,1),\; (1,-1)\bigr)\).
- Vérifier que \(\mathcal{B}^\prime\) est une base de \(\mathbb{R}^2\).
- Écrire la matrice de \(f\) dans la base \(\mathcal{B}^\prime\).
Voir la correction
1. \(\det\begin{pmatrix} 1 & 1 \\ 1 & -1 \end{pmatrix} = -2 \neq 0\), donc \(\mathcal{B}^\prime\) est une base. ✓
2. On calcule les images des vecteurs de \(\mathcal{B}^\prime\) et on les décompose dans \(\mathcal{B}^\prime\).
\(f(1,1) = (2,2)\). On résout \((2,2) = a(1,1) + b(1,-1)\) : \(a+b=2\), \(a-b=2\), d’où \(a=2, b=0\).
\(f(1,-1) = (4,0)\). On résout \((4,0) = a(1,1) + b(1,-1)\) : \(a+b=4\), \(a-b=0\), d’où \(a=2, b=2\).
\(\mathrm{Mat}_{\mathcal{B}^\prime}(f) = \begin{pmatrix} 2 & 2 \\ 0 & 2 \end{pmatrix}\)Exercice 9 ★★★ — Diagonalisation en dimension 3 et suites couplées
Soit \(f\) l’endomorphisme de \(\mathbb{R}^3\) de matrice dans la base canonique :
\(A = \begin{pmatrix} 1 & 1 & 0 \\ 0 & 2 & 1 \\ 0 & 0 & 3 \end{pmatrix}\)- Justifier sans calcul que \(A\) admet trois valeurs propres distinctes ; les déterminer.
- Déterminer une base \(\mathcal{B}^\prime\) de \(\mathbb{R}^3\) formée de vecteurs propres de \(f\). Écrire la matrice de passage \(P\) correspondante et calculer \(P^{-1}\).
- En déduire \(D = P^{-1} A P\) puis une expression explicite de \(A^n\) pour tout \(n \in \mathbb{N}\).
- Application. Soient \((u_n)\), \((v_n)\), \((w_n)\) trois suites définies par \(u_0 = v_0 = w_0 = 1\) et, pour tout \(n \geq 0\) :
Donner l’expression explicite de \(u_n\), \(v_n\), \(w_n\) en fonction de \(n\).
Voir la correction
1. \(A\) est triangulaire supérieure : ses valeurs propres sont ses coefficients diagonaux, soit \(1\), \(2\) et \(3\). Elles sont deux à deux distinctes, donc \(A\) est diagonalisable dans \(\mathbb{R}\) et chaque sous-espace propre est de dimension \(1\).
2. Cherchons un vecteur propre pour chaque valeur propre.
λ = 1 : \((A – I_3)X = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 1 & 1 \\ 0 & 0 & 2 \end{pmatrix} X = 0\) donne \(x_3 = 0\), \(x_2 = 0\), \(x_1\) libre. Vecteur propre : \(v_1 = (1, 0, 0)\).
λ = 2 : \((A – 2I_3)X = \begin{pmatrix} -1 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 1 \end{pmatrix} X = 0\) donne \(x_3 = 0\) et \(x_2 = x_1\). Vecteur propre : \(v_2 = (1, 1, 0)\).
λ = 3 : \((A – 3I_3)X = \begin{pmatrix} -2 & 1 & 0 \\ 0 & -1 & 1 \\ 0 & 0 & 0 \end{pmatrix} X = 0\) donne \(x_3 = x_2\) et \(x_2 = 2 x_1\). Vecteur propre : \(v_3 = (1, 2, 2)\).
Ainsi \(\mathcal{B}^\prime = (v_1, v_2, v_3)\) est une base de vecteurs propres et \(P = \begin{pmatrix} 1 & 1 & 1 \\ 0 & 1 & 2 \\ 0 & 0 & 2 \end{pmatrix}\). Par inversion d’un système triangulaire :
\(P^{-1} = \begin{pmatrix} 1 & -1 & \displaystyle\frac{1}{2} \\ 0 & 1 & -1 \\ 0 & 0 & \displaystyle\frac{1}{2} \end{pmatrix}\)3. \(D = P^{-1} A P = \mathrm{diag}(1, 2, 3)\), donc \(A^n = P D^n P^{-1} = P \, \mathrm{diag}(1, 2^n, 3^n) \, P^{-1}\). Après multiplication (calcul direct par blocs triangulaires) :
\(A^n = \begin{pmatrix} 1 & 2^n – 1 & \displaystyle\frac{3^n – 2^{n+1} + 1}{2} \\ 0 & 2^n & 3^n – 2^n \\ 0 & 0 & 3^n \end{pmatrix}\)Vérification pour n = 1 : les coefficients donnent \(2 – 1 = 1\), \((3 – 4 + 1)/2 = 0\), \(3 – 2 = 1\). On retrouve bien la matrice \(A\). ✓
4. Posons \(X_n = \begin{pmatrix} u_n \\ v_n \\ w_n \end{pmatrix}\). Le système s’écrit \(X_{n+1} = A X_n\), donc \(X_n = A^n X_0\) avec \(X_0 = (1, 1, 1)^T\). En lisant les coefficients de \(A^n\) :
\(w_n = 3^n\) \(v_n = 2^n \cdot 1 + (3^n – 2^n) \cdot 1 = 3^n\) \(u_n = 1 + (2^n – 1) + \displaystyle\frac{3^n – 2^{n+1} + 1}{2} = 2^n + \displaystyle\frac{3^n – 2^{n+1} + 1}{2} = \displaystyle\frac{3^n + 1}{2}\)Vérification. Pour \(n = 0\) : \(u_0 = 1\), \(v_0 = 1\), \(w_0 = 1\). ✓ Récurrence : \(v_{n+1} = 2 \cdot 3^n + 3^n = 3^{n+1}\) ✓ ; \(w_{n+1} = 3 \cdot 3^n = 3^{n+1}\) ✓ ; \(u_{n+1} = \displaystyle\frac{3^n + 1}{2} + 3^n = \displaystyle\frac{3^{n+1} + 1}{2}\) ✓.
Conclusion : \(u_n = \displaystyle\frac{3^n + 1}{2}\), \(v_n = 3^n\), \(w_n = 3^n\).
Point méthode : pour les suites récurrentes linéaires couplées, la stratégie matricielle \(X_{n+1} = A X_n \Rightarrow X_n = A^n X_0\) ramène toujours le problème au calcul de \(A^n\), qui passe par la diagonalisation. L’expression \(A^n = P D^n P^{-1}\) est la méthode standard pour calculer la puissance d’une matrice.
Exercice 10 ★★★ — Opérateur de différence sur \(\mathbb{R}_2[X]\)
Soit \(\Delta : \mathbb{R}_2[X] \to \mathbb{R}_2[X]\) définie par \(\Delta(P)(X) = P(X+1) – P(X)\).
- Montrer que \(\Delta\) est bien un endomorphisme de \(\mathbb{R}_2[X]\).
- Écrire la matrice de \(\Delta\) dans la base \(\mathcal{B} = (1, X, X^2)\).
- Déterminer \(\ker \Delta\) et \(\mathrm{Im}\, \Delta\).
Voir la correction
1. La linéarité est immédiate. Pour la stabilité : si \(P = aX^2 + bX + c\), alors \(P(X+1) – P(X) = 2aX + a + b\), qui est de degré \(\leq 1 \leq 2\). Donc \(\Delta(P) \in \mathbb{R}_2[X]\).
2.
\(\Delta(1) = 1 – 1 = 0, \quad \Delta(X) = (X+1) – X = 1, \quad \Delta(X^2) = (X+1)^2 – X^2 = 2X + 1\) \(\mathrm{Mat}_\mathcal{B}(\Delta) = \begin{pmatrix} 0 & 1 & 1 \\ 0 & 0 & 2 \\ 0 & 0 & 0 \end{pmatrix}\)3. \(\ker \Delta = \{P \mid P(X+1) = P(X)\}\) = polynômes constants = \(\mathrm{Vect}(1)\), \(\dim \ker \Delta = 1\).
\(\mathrm{Im}\, \Delta = \mathrm{Vect}(1, 2X+1) = \mathrm{Vect}(1, X) = \mathbb{R}_1[X]\), \(\dim \mathrm{Im}\, \Delta = 2\).
Exercice 11 ★★★ — Bijectivité en fonction d’un paramètre
Soit \(f_a : \mathbb{R}^3 \to \mathbb{R}^3\) l’endomorphisme de matrice dans la base canonique :
\(A_a = \begin{pmatrix} a & 1 & 1 \\ 1 & a & 1 \\ 1 & 1 & a \end{pmatrix}\)- Calculer \(\det A_a\).
- Pour quelles valeurs de \(a\), \(f_a\) est-elle bijective ?
- Pour \(a = 1\), déterminer \(\ker f_1\) et \(\mathrm{Im}\, f_1\).
Voir la correction
1. On effectue \(C_1 \leftarrow C_1 + C_2 + C_3\). La première colonne devient \((a+2, a+2, a+2)^T\), d’où :
\(\det A_a = (a+2) \det\begin{pmatrix} 1 & 1 & 1 \\ 1 & a & 1 \\ 1 & 1 & a \end{pmatrix}\)On soustrait \(L_1\) aux autres lignes : \(\det A_a = (a+2)(a-1)^2\).
2. \(f_a\) bijective \(\Leftrightarrow \det A_a \neq 0 \Leftrightarrow a \neq -2\) et \(a \neq 1\).
3. Pour \(a = 1\) : \(A_1 = \begin{pmatrix} 1 & 1 & 1 \\ 1 & 1 & 1 \\ 1 & 1 & 1 \end{pmatrix}\).
\(\ker f_1 = \{(x,y,z) \mid x+y+z = 0\} = \mathrm{Vect}\bigl((-1,1,0),\; (-1,0,1)\bigr)\), \(\dim \ker f_1 = 2\).
\(\mathrm{Im}\, f_1 = \mathrm{Vect}\bigl((1,1,1)\bigr)\), \(\dim \mathrm{Im}\, f_1 = 1\).
Exercice 12 ★★★ — Projecteur et base adaptée dans \(\mathbb{R}^3\)
Soient \(F = \mathrm{Vect}\bigl((1,0,1),\; (0,1,0)\bigr)\) et \(G = \mathrm{Vect}\bigl((1,0,-1)\bigr)\) dans \(\mathbb{R}^3\).
- Montrer que \(\mathbb{R}^3 = F \oplus G\).
- Soit \(p\) la projection sur \(F\) parallèlement à \(G\). Écrire la matrice de \(p\) dans la base canonique.
- Écrire la matrice de \(p\) dans la base adaptée \(\mathcal{B}^\prime = \bigl((1,0,1),\; (0,1,0),\; (1,0,-1)\bigr)\).
Voir la correction
1. \(\dim F + \dim G = 2 + 1 = 3\). Il suffit de vérifier \(F \cap G = \{0\}\).
Si \(\alpha(1,0,1) + \beta(0,1,0) = \gamma(1,0,-1)\), alors \(\alpha = \gamma\), \(\beta = 0\), \(\alpha = -\gamma\), d’où \(\gamma = 0\).
Donc \(F \cap G = \{0\}\) et \(\mathbb{R}^3 = F \oplus G\). ✓
2. On décompose chaque vecteur de la base canonique : \((x,y,z) = \alpha(1,0,1) + \beta(0,1,0) + \gamma(1,0,-1)\).
On obtient \(\alpha = \displaystyle\frac{x+z}{2}\), \(\beta = y\), \(\gamma = \displaystyle\frac{x-z}{2}\).
Alors \(p(x,y,z) = \alpha(1,0,1) + \beta(0,1,0) = \left(\displaystyle\frac{x+z}{2},\; y,\; \displaystyle\frac{x+z}{2}\right)\).
\(\mathrm{Mat}_\mathcal{B}(p) = \begin{pmatrix} \displaystyle\frac{1}{2} & 0 & \displaystyle\frac{1}{2} \\[6pt] 0 & 1 & 0 \\[6pt] \displaystyle\frac{1}{2} & 0 & \displaystyle\frac{1}{2} \end{pmatrix}\)3. Dans \(\mathcal{B}^\prime\), les deux premiers vecteurs sont dans \(F\), le troisième dans \(G\). Donc :
\(p(1,0,1) = (1,0,1), \quad p(0,1,0) = (0,1,0), \quad p(1,0,-1) = (0,0,0)\) \(\mathrm{Mat}_{\mathcal{B}^\prime}(p) = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 0 \end{pmatrix}\)Retenir : dans une base adaptée à la décomposition \(E = F \oplus G\), la matrice d’un projecteur est toujours diagonale avec des 1 (pour \(F\)) et des 0 (pour \(G\)). C’est la raison d’être du changement de base.
Exercice 13 ★★★ — Symétrie dans \(\mathbb{R}^2\)
Soit \(s\) la symétrie de \(\mathbb{R}^2\) par rapport à \(D = \mathrm{Vect}\bigl((1,1)\bigr)\) parallèlement à \(D^\prime = \mathrm{Vect}\bigl((1,-1)\bigr)\).
- Calculer \(s(1,0)\) et \(s(0,1)\).
- Écrire la matrice de \(s\) dans la base canonique.
- Vérifier que \(s^2 = \mathrm{Id}\).
Voir la correction
Rappel : \(s\) fixe les vecteurs de \(D\) et renverse ceux de \(D^\prime\) : \(s(1,1) = (1,1)\), \(s(1,-1) = -(1,-1) = (-1,1)\).
1. Décomposition : \((1,0) = \displaystyle\frac{1}{2}(1,1) + \displaystyle\frac{1}{2}(1,-1)\).
\(s(1,0) = \displaystyle\frac{1}{2}(1,1) + \displaystyle\frac{1}{2}(-1,1) = (0,1)\)De même : \((0,1) = \displaystyle\frac{1}{2}(1,1) – \displaystyle\frac{1}{2}(1,-1)\).
\(s(0,1) = \displaystyle\frac{1}{2}(1,1) – \displaystyle\frac{1}{2}(-1,1) = (1,0)\)2. \(\mathrm{Mat}(s) = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}\)
3. \(s^2 = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}^2 = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = I_2\) ✓
Géométriquement, \(s\) est la symétrie par rapport à la droite \(y = x\) : elle échange les coordonnées \((x,y) \mapsto (y,x)\).
Exercice 14 ★★★ — Noyaux itérés d’un endomorphisme nilpotent
Soit \(f\) l’endomorphisme de \(\mathbb{R}^3\) de matrice \(A = \begin{pmatrix} 0 & 1 & 1 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix}\).
- Calculer \(A^2\) et \(A^3\). Que vaut l’indice de nilpotence de \(f\) ?
- Déterminer \(\ker f\), \(\ker f^2\) et \(\ker f^3\).
- Commenter la chaîne d’inclusions obtenue.
Voir la correction
1. \(A^2 = \begin{pmatrix} 0 & 0 & 1 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}\), \(A^3 = 0\). Comme \(A^2 \neq 0\) et \(A^3 = 0\), l’indice de nilpotence est 3.
2.
\(\ker f\) : \(Ax = 0 \Rightarrow y+z = 0,\; z = 0\), d’où \(y = z = 0\). \(\ker f = \mathrm{Vect}(e_1)\), \(\dim = 1\).
\(\ker f^2\) : \(A^2 x = 0 \Rightarrow z = 0\). \(\ker f^2 = \mathrm{Vect}(e_1, e_2)\), \(\dim = 2\).
\(\ker f^3 = \mathbb{R}^3\) (car \(A^3 = 0\)), \(\dim = 3\).
3. On obtient la chaîne strictement croissante :
\(\{0\} \subsetneq \ker f \subsetneq \ker f^2 \subsetneq \ker f^3 = \mathbb{R}^3\)À chaque itération, la dimension augmente exactement de 1. C’est une propriété caractéristique des endomorphismes nilpotents associés à un seul bloc de Jordan nilpotent.
Exercices de synthèse et type concours (★★★★–★★★★★)
Exercice 15 ★★★★ — Commutant d’une matrice (endomorphisme de \(\mathcal{M}_2(\mathbb{R})\))
Soit \(A = \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}\) et \(\varphi : \mathcal{M}_2(\mathbb{R}) \to \mathcal{M}_2(\mathbb{R})\) définie par \(\varphi(M) = AM – MA\).
- Montrer que \(\varphi\) est un endomorphisme de \(\mathcal{M}_2(\mathbb{R})\).
- Déterminer \(\ker \varphi\) (le commutant de \(A\)).
- Écrire la matrice de \(\varphi\) dans la base canonique \((E_{11}, E_{12}, E_{21}, E_{22})\).
- En déduire \(\mathrm{rg}\, \varphi\).
Voir la correction
1. \(\varphi(\lambda M + \mu N) = A(\lambda M + \mu N) – (\lambda M + \mu N)A = \lambda(AM – MA) + \mu(AN – NA) = \lambda\varphi(M) + \mu\varphi(N)\). ✓
2. Soit \(M = \begin{pmatrix} a & b \\ c & d \end{pmatrix}\). On calcule :
\(AM = \begin{pmatrix} a+c & b+d \\ c & d \end{pmatrix}, \quad MA = \begin{pmatrix} a & a+b \\ c & c+d \end{pmatrix}\)\(AM = MA \Leftrightarrow c = 0 \text{ et } d = a\). Donc :
\(\ker \varphi = \left\{ \begin{pmatrix} a & b \\ 0 & a \end{pmatrix} \mid a, b \in \mathbb{R} \right\} = \mathrm{Vect}(I_2, E_{12})\), \(\dim \ker \varphi = 2\).
3. On calcule les images des vecteurs de base :
\(\varphi(E_{11}) = AE_{11} – E_{11}A = \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} – \begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} = \begin{pmatrix} 0 & -1 \\ 0 & 0 \end{pmatrix} = -E_{12}\)\(\varphi(E_{12}) = 0\) (car \(E_{12} \in \ker \varphi\))
\(\varphi(E_{21}) = \begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix} – \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix} = E_{11} – E_{22}\) \(\varphi(E_{22}) = \begin{pmatrix} 0 & 1 \\ 0 & 1 \end{pmatrix} – \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix} = E_{12}\) \(\mathrm{Mat}(\varphi) = \begin{pmatrix} 0 & 0 & 1 & 0 \\ -1 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & -1 & 0 \end{pmatrix}\)4. Par le théorème du rang : \(\mathrm{rg}\, \varphi = \dim \mathcal{M}_2(\mathbb{R}) – \dim \ker \varphi = 4 – 2 = 2\).
Exercice 16 ★★★★ — Projecteurs complémentaires
Soient \(p\) et \(q\) deux endomorphismes d’un \(\mathbb{K}\)-espace vectoriel \(E\) de dimension finie tels que \(p + q = \mathrm{Id}_E\).
- Montrer que \(p \circ q = q \circ p\).
- Montrer que \(p^2 = p \Leftrightarrow q^2 = q\).
- On suppose \(p^2 = p\). Montrer que \(p \circ q = 0\).
- En déduire \(\mathrm{Im}\, p = \ker q\) et \(E = \mathrm{Im}\, p \oplus \mathrm{Im}\, q\).
Voir la correction
1. \(p \circ q = p \circ (\mathrm{Id} – p) = p – p^2\) et \(q \circ p = (\mathrm{Id} – p) \circ p = p – p^2\). Donc \(p \circ q = q \circ p\). ✓
2. \(q = \mathrm{Id} – p\), donc \(q^2 = (\mathrm{Id} – p)^2 = \mathrm{Id} – 2p + p^2\).
\(q^2 = q \Leftrightarrow \mathrm{Id} – 2p + p^2 = \mathrm{Id} – p \Leftrightarrow p^2 = p\). ✓
3. Si \(p^2 = p\) : \(p \circ q = p – p^2 = p – p = 0\). ✓
4.
\(\mathrm{Im}\, p = \ker q\) : si \(x \in \mathrm{Im}\, p\), \(x = p(y)\), alors \(q(x) = q(p(y)) = 0\), donc \(x \in \ker q\). Réciproquement, si \(q(x) = 0\), alors \(x = p(x) + q(x) = p(x) \in \mathrm{Im}\, p\).
\(E = \mathrm{Im}\, p \oplus \mathrm{Im}\, q\) : pour tout \(x \in E\), \(x = p(x) + q(x) \in \mathrm{Im}\, p + \mathrm{Im}\, q\), donc \(E = \mathrm{Im}\, p + \mathrm{Im}\, q\). Si \(x \in \mathrm{Im}\, p \cap \mathrm{Im}\, q = \ker q \cap \ker p\), alors \(x = p(x) + q(x) = 0\). Donc la somme est directe. ∎
Exercice 17 ★★★★ — Opérateur de translation sur R_n[X] et exponentielle de la dérivation (type Mines)
Soit \(n \in \mathbb{N}^*\). Pour tout \(a \in \mathbb{R}\), on définit \(T_a : \mathbb{R}_n[X] \to \mathbb{R}_n[X]\) par \(T_a(P)(X) = P(X + a)\), et on note \(D\) l’opérateur de dérivation sur \(\mathbb{R}_n[X]\).
- Montrer que \(T_a\) est un endomorphisme de \(\mathbb{R}_n[X]\) et que, pour tous \(a, b \in \mathbb{R}\), \(T_a \circ T_b = T_{a+b}\). En déduire \(T_a^{-1}\).
- Montrer que \(D^{n+1} = 0\) et que \(D\) est nilpotent d’indice exactement \(n+1\).
- En utilisant la formule de Taylor pour les polynômes, établir la relation opérationnelle :
- En déduire la matrice de \(T_a\) dans la base \(\mathcal{B} = (1, X, X^2, \ldots, X^n)\). Préciser ses valeurs propres et sa trace.
- Inversion. Montrer que \(T_a^{-1} = T_{-a} = \displaystyle\sum_{k=0}^{n} \displaystyle\frac{(-a)^k}{k!} D^k\) et retrouver ce résultat en développant \((\mathrm{Id} + (T_a – \mathrm{Id}))^{-1}\) par série géométrique opérationnelle.
- Itérés. Pour \(m \in \mathbb{Z}\), donner une expression explicite de \(T_a^m\) sans calcul matriciel supplémentaire.
Voir la correction
1. \(T_a\) est linéaire (vérification immédiate sur \((\lambda P + \mu Q)(X+a)\)). Si \(\deg P \leq n\), alors \(\deg P(X+a) \leq n\), donc \(T_a\) est bien à valeurs dans \(\mathbb{R}_n[X]\). Pour tout \(P\) : \((T_a \circ T_b)(P)(X) = T_a(P(X+b))(X) = P(X + b + a) = T_{a+b}(P)(X)\). En particulier \(T_a \circ T_{-a} = T_0 = \mathrm{Id}\), donc \(T_a\) est inversible et \(T_a^{-1} = T_{-a}\).
2. Pour \(P \in \mathbb{R}_n[X]\), \(\deg D(P) \leq \deg P – 1\) (avec convention \(\deg 0 = -\infty\)). Donc \(D^{n+1}(P)\) est de degré \(\leq n – (n+1) < 0[/latex], c'est-à-dire [latex]D^{n+1}(P) = 0[/latex]. Par ailleurs [latex]D^n(X^n) = n![/latex] polynôme constant non nul, donc [latex]D^n \neq 0[/latex] : [latex]D[/latex] est nilpotent d'indice exactement [latex]n + 1[/latex].
3. La formule de Taylor pour les polynômes donne, pour tout [latex]P \in \mathbb{R}_n[X]\) :
\(P(X + a) = \displaystyle\sum_{k=0}^{+\infty} \displaystyle\frac{a^k}{k!} P^{(k)}(X) = \displaystyle\sum_{k=0}^{n} \displaystyle\frac{a^k}{k!} P^{(k)}(X)\)(la somme se tronque car \(P^{(k)} = 0\) pour \(k > n\)). Sous forme d’opérateurs :
\(T_a = \displaystyle\sum_{k=0}^{n} \displaystyle\frac{a^k}{k!} D^k = \exp(a D)\) (exponentielle d’opérateur, série finie car \(D^{n+1} = 0\)).
4. Dans la base \(\mathcal{B}\), \(\mathrm{Mat}_\mathcal{B}(D) = \begin{pmatrix} 0 & 1 & 0 & \cdots & 0 \\ 0 & 0 & 2 & \cdots & 0 \\ \vdots & & \ddots & \ddots & \vdots \\ 0 & & & 0 & n \\ 0 & \cdots & \cdots & \cdots & 0 \end{pmatrix}\) (triangulaire supérieure stricte).
Donc \(\mathrm{Mat}_\mathcal{B}(T_a) = \displaystyle\sum_{k=0}^{n} \displaystyle\frac{a^k}{k!} \mathrm{Mat}_\mathcal{B}(D)^k\), qui est triangulaire supérieure avec des 1 sur la diagonale (le coefficient diagonal vaut \(a^0 / 0! = 1\)).
Le coefficient en position \((i, j)\) (avec \(i \leq j\)) est \(C_j^i \, a^{j-i}\) où \(C_j^i\) désigne le coefficient binomial « \(j\) parmi \(i\) ». C’est la matrice de Pascal scalée.
Valeurs propres : \(T_a\) est triangulaire avec tous les coefficients diagonaux égaux à \(1\), donc sa seule valeur propre est \(1\), de multiplicité \(n + 1\). Trace : \(\mathrm{tr}(T_a) = n + 1\).
5. Par la question 1, \(T_a^{-1} = T_{-a} = \exp(-aD) = \displaystyle\sum_{k=0}^{n} \displaystyle\frac{(-a)^k}{k!} D^k\).
Retrouvons-le par série géométrique. Posons \(N = T_a – \mathrm{Id} = \displaystyle\sum_{k=1}^{n} \displaystyle\frac{a^k}{k!} D^k\). Alors \(N\) est nilpotent (car \(N\) est polynôme en \(D\) sans terme constant et \(D^{n+1} = 0\)). Plus précisément, \(N^{n+1} = 0\). Donc :
\(T_a^{-1} = (\mathrm{Id} + N)^{-1} = \displaystyle\sum_{k=0}^{n} (-1)^k N^k\)En identifiant les coefficients en \(D^k\) des deux expressions, on retrouve bien \(\displaystyle\frac{(-a)^k}{k!}\).
6. Par récurrence immédiate sur \(m \in \mathbb{N}\) : \(T_a^m = T_{ma}\). Cette relation se prolonge à \(m \in \mathbb{Z}\) grâce à \(T_a^{-1} = T_{-a}\). Donc :
\(T_a^m = T_{ma} = \exp(m a D) = \displaystyle\sum_{k=0}^{n} \displaystyle\frac{(ma)^k}{k!} D^k\)Culture : la relation \(T_a = e^{aD}\) est un cas particulier du théorème de Stone en analyse fonctionnelle (les groupes à un paramètre d’opérateurs unitaires sont générés par des opérateurs auto-adjoints). L’opérateur \(D\) est le générateur infinitésimal du groupe des translations \((T_a)_{a \in \mathbb{R}}\).
Exercice 18 ★★★★★ I — Nilpotents d’indice maximal et forme canonique de Jordan (type X/ENS)
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension finie \(n \geq 1\) et \(f \in \mathcal{L}(E)\) nilpotent d’indice \(p\) (i.e. \(f^p = 0\) et \(f^{p-1} \neq 0\)).
- Soit \(x \in E\) tel que \(f^{p-1}(x) \neq 0\). Montrer que la famille \(\mathcal{F}_x = \bigl(x, f(x), f^2(x), \ldots, f^{p-1}(x)\bigr)\) est libre. En déduire \(p \leq n\).
- Montrer que, pour tout \(\lambda \in \mathbb{K}^*\), \(\mathrm{Id} – \lambda f\) est inversible et expliciter son inverse.
- Cas d’indice maximal. On suppose désormais \(p = n\). Soit \(x_0 \in E\) tel que \(f^{n-1}(x_0) \neq 0\). Montrer que \(\mathcal{B} = \bigl(f^{n-1}(x_0),\ f^{n-2}(x_0),\ \ldots,\ f(x_0),\ x_0\bigr)\) est une base de \(E\). Expliciter la matrice \(J_n\) de \(f\) dans cette base.
- En déduire que deux endomorphismes nilpotents d’indice maximal sur \(E\) sont semblables. Quels sont le polynôme caractéristique et le polynôme minimal de \(f\) dans ce cas ?
- Polynômes qui commutent avec f. On suppose toujours \(p = n\). Soit \(g \in \mathcal{L}(E)\) commutant avec \(f\) (i.e. \(g \circ f = f \circ g\)). Montrer qu’il existe un unique polynôme \(Q \in \mathbb{K}_{n-1}[X]\) tel que \(g = Q(f)\). En déduire la dimension du commutant \(\mathcal{C}(f) = \{g \in \mathcal{L}(E) \mid gf = fg\}\).
- Application numérique. Soit \(A = \begin{pmatrix} 0 & 2 & 0 & 0 \\ 0 & 0 & 3 & 0 \\ 0 & 0 & 0 & 4 \\ 0 & 0 & 0 & 0 \end{pmatrix} \in \mathcal{M}_4(\mathbb{R})\). Déterminer son indice de nilpotence, calculer \((I_4 – A)^{-1}\) et déterminer la dimension de \(\mathcal{C}(A)\).
Voir la correction
1. Soit \(\displaystyle\sum_{k=0}^{p-1} \alpha_k f^k(x) = 0\). En appliquant \(f^{p-1}\) et en utilisant \(f^j = 0\) pour \(j \geq p\) :
\(\alpha_0 f^{p-1}(x) = 0\). Comme \(f^{p-1}(x) \neq 0\), \(\alpha_0 = 0\).
On applique ensuite \(f^{p-2}\) : \(\alpha_1 f^{p-1}(x) = 0\) donc \(\alpha_1 = 0\). Par récurrence descendante, tous les \(\alpha_k\) sont nuls. La famille est libre, donc \(p \leq \dim E = n\).
2. Posons \(g = \displaystyle\sum_{k=0}^{p-1} \lambda^k f^k\). Alors :
\((\mathrm{Id} – \lambda f) \circ g = \displaystyle\sum_{k=0}^{p-1} \lambda^k f^k – \displaystyle\sum_{k=0}^{p-1} \lambda^{k+1} f^{k+1} = \mathrm{Id} – \lambda^p f^p = \mathrm{Id}\) (car \(f^p = 0\)).
Symétriquement \(g \circ (\mathrm{Id} – \lambda f) = \mathrm{Id}\). Donc \((\mathrm{Id} – \lambda f)^{-1} = \displaystyle\sum_{k=0}^{p-1} \lambda^k f^k\).
3. Par la question 1, \(\bigl(x_0, f(x_0), \ldots, f^{n-1}(x_0)\bigr)\) est libre de cardinal \(n = \dim E\), donc c’est une base. La famille \(\mathcal{B}\) est la même à l’ordre près : c’est donc aussi une base.
Notons \(e_i = f^{n-i}(x_0)\) pour \(i \in \{1, \ldots, n\}\) (donc \(\mathcal{B} = (e_1, \ldots, e_n)\)). On a \(f(e_1) = f^n(x_0) = 0\) et, pour \(i \geq 2\), \(f(e_i) = f^{n-i+1}(x_0) = e_{i-1}\). Donc :
\(J_n = \mathrm{Mat}_\mathcal{B}(f) = \begin{pmatrix} 0 & 1 & 0 & \cdots & 0 \\ 0 & 0 & 1 & \cdots & 0 \\ \vdots & & \ddots & \ddots & \vdots \\ 0 & & & 0 & 1 \\ 0 & \cdots & \cdots & \cdots & 0 \end{pmatrix}\)C’est le bloc de Jordan nilpotent de taille \(n\).
4. Deux tels endomorphismes ont la même matrice \(J_n\) dans des bases convenables : ils sont donc semblables. Leur polynôme caractéristique est \(\chi_f(X) = \det(X I_n – J_n) = X^n\). Leur polynôme minimal est \(\pi_f(X) = X^n\) (car \(f^{n-1} \neq 0\) mais \(f^n = 0\)).
5. Analyse. Soit \(g\) commutant avec \(f\). Posons \(y_0 = g(x_0) \in E\). Comme \(\mathcal{B}’ = (x_0, f(x_0), \ldots, f^{n-1}(x_0))\) est une base, il existe \(a_0, \ldots, a_{n-1} \in \mathbb{K}\) uniques tels que \(y_0 = \displaystyle\sum_{k=0}^{n-1} a_k f^k(x_0)\).
Posons \(Q(X) = \displaystyle\sum_{k=0}^{n-1} a_k X^k\) et \(h = Q(f) \in \mathcal{L}(E)\). Alors \(h\) commute avec \(f\) (polynôme en \(f\)) et \(h(x_0) = g(x_0)\). Pour tout \(k\) :
\(h(f^k(x_0)) = f^k(h(x_0)) = f^k(g(x_0)) = g(f^k(x_0))\)(en utilisant la commutation). Donc \(h\) et \(g\) coïncident sur la base \(\mathcal{B}’\), ce qui entraîne \(g = h = Q(f)\).
Unicité du polynôme \(Q\). Si \(Q_1(f) = Q_2(f)\) avec \(Q_1, Q_2 \in \mathbb{K}_{n-1}[X]\), alors \((Q_1 – Q_2)(f) = 0\), donc \(\pi_f = X^n\) divise \(Q_1 – Q_2\). Mais \(\deg(Q_1 – Q_2) \leq n – 1 < n[/latex], donc [latex]Q_1 = Q_2[/latex].
Dimension. L’application [latex]Q \mapsto Q(f)\) de \(\mathbb{K}_{n-1}[X]\) dans \(\mathcal{C}(f)\) est donc une bijection linéaire. Ainsi \(\dim \mathcal{C}(f) = \dim \mathbb{K}_{n-1}[X] = n\).
6. \(A\) agit sur la base canonique par : \(A e_1 = 0\), \(A e_2 = 2 e_1\), \(A e_3 = 3 e_2\), \(A e_4 = 4 e_3\). On en déduit \(A^2 e_4 = 12 e_2\), \(A^3 e_4 = 24 e_1\), \(A^4 e_4 = 0\), et \(A^3 \neq 0\). Donc \(A\) est nilpotente d’indice \(4\) = indice maximal.
Calcul de \(A^2\) et \(A^3\) :
\(A^2 = \begin{pmatrix} 0 & 0 & 6 & 0 \\ 0 & 0 & 0 & 12 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{pmatrix},\quad A^3 = \begin{pmatrix} 0 & 0 & 0 & 24 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{pmatrix}\)Avec \(\lambda = 1\) : \((I_4 – A)^{-1} = I_4 + A + A^2 + A^3 = \begin{pmatrix} 1 & 2 & 6 & 24 \\ 0 & 1 & 3 & 12 \\ 0 & 0 & 1 & 4 \\ 0 & 0 & 0 & 1 \end{pmatrix}\)
(Vérification : \((I_4 – A)(I_4 + A + A^2 + A^3) = I_4 – A^4 = I_4\). ✓)
Enfin, \(A\) étant nilpotente d’indice maximal \(4\), par la question 5 : \(\dim \mathcal{C}(A) = 4\).
Culture : le résultat de la question 5 est un cas particulier du théorème de Frobenius sur les commutants : \(\dim \mathcal{C}(A) \geq n\) avec égalité si et seulement si \(A\) est cyclique (i.e. admet un vecteur \(x_0\) tel que \((x_0, Ax_0, \ldots, A^{n-1} x_0)\) soit une base). Les nilpotents d’indice maximal en sont l’exemple canonique.
Exercice 19 ★★★★★ — Endomorphisme de Sylvester et équation AX − XB = C (type Centrale/ENS)
Soient \(n \in \mathbb{N}^*\) et \(A, B \in \mathcal{M}_n(\mathbb{R})\). On définit :
\(\Phi_{A,B} : \mathcal{M}_n(\mathbb{R}) \to \mathcal{M}_n(\mathbb{R}), \quad M \mapsto AM – MB\)- Montrer que \(\Phi_{A,B}\) est un endomorphisme de \(\mathcal{M}_n(\mathbb{R})\).
- Montrer que si \(A\) et \(B\) sont diagonalisables dans \(\mathbb{R}\) (on suppose \(A = P D_A P^{-1}\) et \(B = Q D_B Q^{-1}\) avec \(D_A = \mathrm{diag}(\lambda_1, \ldots, \lambda_n)\) et \(D_B = \mathrm{diag}(\mu_1, \ldots, \mu_n)\)), alors \(\Phi_{A,B}\) est diagonalisable. Préciser ses valeurs propres et sa trace.
- En déduire que, sous ces hypothèses, \(\Phi_{A,B}\) est bijectif si et seulement si \(A\) et \(B\) n’ont aucune valeur propre en commun.
- Conséquence. Sous les mêmes hypothèses, montrer que l’équation matricielle \(AX – XB = C\) admet une unique solution \(X \in \mathcal{M}_n(\mathbb{R})\) pour toute \(C \in \mathcal{M}_n(\mathbb{R})\) si et seulement si \(\mathrm{Sp}(A) \cap \mathrm{Sp}(B) = \emptyset\).
- Application numérique. Résoudre l’équation \(AX – XB = C\) avec :
Voir la correction
1. \(\Phi_{A,B}(\alpha M_1 + \beta M_2) = A(\alpha M_1 + \beta M_2) – (\alpha M_1 + \beta M_2)B = \alpha(AM_1 – M_1 B) + \beta(AM_2 – M_2 B) = \alpha \Phi_{A,B}(M_1) + \beta \Phi_{A,B}(M_2)\). Linéarité acquise. Image dans \(\mathcal{M}_n(\mathbb{R})\) : évident.
2. Écrivons \(M = P M’ Q^{-1}\) (bijection car \(P\) et \(Q\) inversibles). Alors :
\(\Phi_{A,B}(M) = A P M’ Q^{-1} – P M’ Q^{-1} B = P D_A M’ Q^{-1} – P M’ D_B Q^{-1} = P (D_A M’ – M’ D_B) Q^{-1}\)Donc dans les « nouvelles coordonnées » \(M’\), l’endomorphisme \(\Phi_{A,B}\) agit comme \(\Phi_{D_A, D_B}\). Étudions ce dernier : si \(M’ = (m’_{ij})\), alors \((D_A M’)_{ij} = \lambda_i m’_{ij}\) et \((M’ D_B)_{ij} = \mu_j m’_{ij}\), donc :
\(\bigl(\Phi_{D_A, D_B}(M’)\bigr)_{ij} = (\lambda_i – \mu_j) m’_{ij}\)Autrement dit, dans la base canonique \((E_{ij})_{1 \leq i, j \leq n}\) de \(\mathcal{M}_n(\mathbb{R})\), \(\Phi_{D_A, D_B}\) est diagonal de valeurs propres \((\lambda_i – \mu_j)_{1 \leq i, j \leq n}\).
L’endomorphisme \(\Phi_{A,B}\) est conjugué à \(\Phi_{D_A, D_B}\) par l’isomorphisme \(M’ \mapsto P M’ Q^{-1}\). Il est donc lui aussi diagonalisable, de mêmes valeurs propres. Ainsi :
\(\mathrm{Sp}(\Phi_{A,B}) = \{\lambda_i – \mu_j \mid 1 \leq i, j \leq n\}\) \(\mathrm{tr}(\Phi_{A,B}) = \displaystyle\sum_{i,j=1}^{n} (\lambda_i – \mu_j) = n \displaystyle\sum_{i=1}^n \lambda_i – n \displaystyle\sum_{j=1}^n \mu_j = n \bigl(\mathrm{tr}(A) – \mathrm{tr}(B)\bigr)\)3. \(\Phi_{A,B}\) est bijectif si et seulement si \(0 \notin \mathrm{Sp}(\Phi_{A,B})\), c’est-à-dire si aucune des différences \(\lambda_i – \mu_j\) n’est nulle, ou encore \(\mathrm{Sp}(A) \cap \mathrm{Sp}(B) = \emptyset\).
4. L’équation \(AX – XB = C\) s’écrit \(\Phi_{A,B}(X) = C\). Elle admet une unique solution pour toute \(C\) si et seulement si \(\Phi_{A,B}\) est bijectif, d’où la condition spectrale.
5. Ici \(\mathrm{Sp}(A) = \{2, 3\}\) et \(\mathrm{Sp}(B) = \{0, 1\}\) : spectres disjoints, donc unique solution. \(A\) et \(B\) sont déjà diagonales, on cherche \(X = \begin{pmatrix} x_{11} & x_{12} \\ x_{21} & x_{22} \end{pmatrix}\) vérifiant \((\lambda_i – \mu_j) x_{ij} = c_{ij}\) pour chaque \((i, j)\) :
- \((i, j) = (1, 1)\) : \((2 – 0) x_{11} = 1 \Rightarrow x_{11} = \displaystyle\frac{1}{2}\)
- \((i, j) = (1, 2)\) : \((2 – 1) x_{12} = 2 \Rightarrow x_{12} = 2\)
- \((i, j) = (2, 1)\) : \((3 – 0) x_{21} = 3 \Rightarrow x_{21} = 1\)
- \((i, j) = (2, 2)\) : \((3 – 1) x_{22} = 4 \Rightarrow x_{22} = 2\)
D’où \(X = \begin{pmatrix} \displaystyle\frac{1}{2} & 2 \\ 1 & 2 \end{pmatrix}\).
Vérification : \(AX = \begin{pmatrix} 1 & 4 \\ 3 & 6 \end{pmatrix}\), \(XB = \begin{pmatrix} 0 & 2 \\ 0 & 2 \end{pmatrix}\), \(AX – XB = \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix} = C\). ✓
Culture : cette équation est l’équation de Sylvester, fondamentale en théorie du contrôle (équations de Lyapunov en stabilité des systèmes dynamiques) et en réduction des endomorphismes (construction de projecteurs spectraux). Le théorème démontré ici se généralise aux matrices complexes non diagonalisables : \(\Phi_{A,B}\) est bijectif si et seulement si \(\mathrm{Sp}_\mathbb{C}(A) \cap \mathrm{Sp}_\mathbb{C}(B) = \emptyset\).
Exercice 20 ★★★★ — Rang d’une composée et endomorphisme nilpotent
Soient \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\) et \(f, g \in \mathcal{L}(E)\).
- Montrer que \(\mathrm{Im}(g \circ f) \subset \mathrm{Im}\, g\) et \(\ker f \subset \ker(g \circ f)\).
- En déduire \(\mathrm{rg}(g \circ f) \leq \min(\mathrm{rg}\, f,\; \mathrm{rg}\, g)\).
- On suppose \(f \circ g = 0\). Montrer que \(\mathrm{Im}\, g \subset \ker f\) et en déduire \(\mathrm{rg}\, f + \mathrm{rg}\, g \leq n\).
- Application : soit \(f \in \mathcal{L}(\mathbb{R}^3)\) tel que \(f^2 = 0\) et \(f \neq 0\). Montrer que \(\mathrm{rg}\, f = 1\).
Voir la correction
1.
\(\mathrm{Im}(g \circ f) = \{g(f(x)) \mid x \in E\} \subset \{g(y) \mid y \in E\} = \mathrm{Im}\, g\). ✓
Si \(x \in \ker f\), alors \(g(f(x)) = g(0) = 0\), donc \(x \in \ker(g \circ f)\). ✓
2. De \(\mathrm{Im}(g \circ f) \subset \mathrm{Im}\, g\) : \(\mathrm{rg}(g \circ f) \leq \mathrm{rg}\, g\).
De \(\ker f \subset \ker(g \circ f)\) : \(\dim \ker(g \circ f) \geq \dim \ker f = n – \mathrm{rg}\, f\).
Par le théorème du rang : \(\mathrm{rg}(g \circ f) = n – \dim \ker(g \circ f) \leq n – (n – \mathrm{rg}\, f) = \mathrm{rg}\, f\).
Conclusion : \(\mathrm{rg}(g \circ f) \leq \min(\mathrm{rg}\, f, \mathrm{rg}\, g)\). ∎
3. Si \(f \circ g = 0\) : pour tout \(y \in \mathrm{Im}\, g\), \(y = g(x)\) et \(f(y) = f(g(x)) = 0\), donc \(y \in \ker f\).
\(\mathrm{Im}\, g \subset \ker f \Rightarrow \mathrm{rg}\, g \leq \dim \ker f = n – \mathrm{rg}\, f\).
D’où \(\mathrm{rg}\, f + \mathrm{rg}\, g \leq n\). ∎
4. \(f^2 = 0\) avec \(g = f\) donne \(2 \cdot \mathrm{rg}\, f \leq 3\), soit \(\mathrm{rg}\, f \leq 1\). Comme \(f \neq 0\), \(\mathrm{rg}\, f \geq 1\). Donc \(\mathrm{rg}\, f = 1\). ∎
Piège classique : l’inégalité \(\mathrm{rg}\, f + \mathrm{rg}\, g \leq n\) n’est valable que si \(f \circ g = 0\). En général (sans cette hypothèse), on a seulement \(\mathrm{rg}(g \circ f) \leq \min(\mathrm{rg}\, f, \mathrm{rg}\, g)\), sans contrainte sur la somme des rangs.
Erreurs fréquentes et pièges classiques
Erreur 1 — Oublier de vérifier \(f(0) = 0\)
Avant de se lancer dans la vérification de \(f(\lambda u + \mu v) = \lambda f(u) + \mu f(v)\), vérifie d’abord que \(f(0_E) = 0_F\). Si ce n’est pas le cas, \(f\) n’est pas linéaire et tu gagnes du temps.
❌ Copie fautive : « Soit \(f(x,y) = (x + 1, y)\). Vérifions la linéarité… » → \(f(0,0) = (1,0) \neq (0,0)\), donc \(f\) n’est pas linéaire. Fin.
Erreur 2 — Confondre matrice de \(f\) et matrice de passage
La matrice de \(f\) dans \(\mathcal{B}\) a pour colonnes les images \(f(e_j)\) exprimées dans \(\mathcal{B}\). La matrice de passage \(P\) de \(\mathcal{B}\) à \(\mathcal{B}^\prime\) a pour colonnes les vecteurs de \(\mathcal{B}^\prime\) exprimés dans \(\mathcal{B}\). Ce ne sont pas les mêmes objets.
Erreur 3 — Se tromper de sens dans le changement de base
❌ Écrire \(\mathrm{Mat}_{\mathcal{B}^\prime}(f) = P \cdot \mathrm{Mat}_{\mathcal{B}}(f) \cdot P^{-1}\).
✅ La bonne formule est \(\mathrm{Mat}_{\mathcal{B}^\prime}(f) = P^{-1} \cdot \mathrm{Mat}_{\mathcal{B}}(f) \cdot P\).
Moyen mnémotechnique : la matrice \(P\) « traduit » de \(\mathcal{B}\) vers \(\mathcal{B}^\prime\), donc on l’applique d’abord (à droite) pour ramener dans \(\mathcal{B}\), puis \(f\) agit, puis \(P^{-1}\) retraduit dans \(\mathcal{B}^\prime\).
Erreur 4 — Oublier de donner une base de \(\ker f\) et \(\mathrm{Im}\, f\)
Écrire « \(\ker f = \{(x,y,z) \mid x + y + z = 0\}\) » ne suffit pas. Le correcteur attend une base et la dimension : « \(\ker f = \mathrm{Vect}\bigl((-1,1,0),\; (-1,0,1)\bigr)\), de dimension 2 ».
Erreur 5 — Croire qu’une application linéaire conserve le degré
Sur les espaces de polynômes, le degré peut baisser. La dérivation \(D(X^2) = 2X\) fait passer du degré 2 au degré 1. L’opérateur \(\Delta(P) = P(X+1) – P(X)\) fait de même. Toujours vérifier que l’espace d’arrivée est bien stable.
Questions fréquentes
Quelle est la différence entre une application linéaire et sa matrice ?
Une application linéaire \(f : E \to F\) est un objet intrinsèque : elle ne dépend d’aucun choix de base. Sa matrice est une représentation de \(f\) dans un couple de bases donné. Si tu changes de base, la matrice change (via la formule \(P^{-1}AP\)), mais l’application linéaire reste la même. Les quantités intrinsèques — rang, noyau, image, trace, déterminant — ne dépendent pas de la base.
Comment vérifier rapidement qu'une application est linéaire ?
Deux méthodes. Méthode directe : vérifier \(f(\lambda u + \mu v) = \lambda f(u) + \mu f(v)\) pour tous vecteurs \(u, v\) et tous scalaires \(\lambda, \mu\). Astuce préliminaire : vérifier d’abord \(f(0) = 0\). Si \(f(0) \neq 0\), l’application n’est pas linéaire (fin immédiate). Pour les applications définies par des formules, la linéarité se lit souvent directement : si chaque composante est une combinaison linéaire des coordonnées (sans terme constant ni produit de coordonnées), l’application est linéaire.
Quelle est la différence entre un projecteur et une symétrie ?
Un projecteur \(p\) vérifie \(p^2 = p\) : il « écrase » les vecteurs sur un sous-espace \(F\) parallèlement à un supplémentaire \(G\). Une symétrie \(s\) vérifie \(s^2 = \mathrm{Id}\) : elle fixe \(F\) et renverse \(G\). Le lien : \(s = 2p – \mathrm{Id}\). En termes de valeurs propres : \(p\) a pour valeurs propres 0 et 1, tandis que \(s\) a pour valeurs propres \(-1\) et 1.
Comment déterminer le noyau d'une application linéaire donnée par sa matrice ?
Résoudre le système linéaire homogène \(AX = 0\) par la méthode du pivot de Gauss. Les variables libres paramètrent les solutions. Le noyau est engendré par les vecteurs correspondant à chaque variable libre prise égale à 1, les autres à 0. Ne pas oublier de donner une base et la dimension.
Pour aller plus loin
Tu maîtrises maintenant les exercices fondamentaux sur les applications linéaires. Pour approfondir :
- Matrice d’une application linéaire — le cours complet avec définition, propriétés et démonstrations
- Changement de base — la formule \(P^{-1}AP\) détaillée pas à pas
- Noyau d’une matrice — méthode systématique pour déterminer \(\ker f\)
- Rang d’une matrice — trois méthodes de calcul comparées
- Diagonalisation d’une matrice — le prolongement naturel du changement de base
- Exercices corrigés sur les matrices — multiplication, inverse, déterminant
- Exercices de diagonalisation et réduction — valeurs propres, polynôme caractéristique
- Espaces vectoriels — les fondements théoriques