Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec le niveau d’exigence attendu en classe préparatoire. Découvrir le professeur
Toute application linéaire entre espaces vectoriels de dimension finie se représente par une matrice — et réciproquement. Cette correspondance est le pont entre l’algèbre abstraite et le calcul concret : elle transforme la composition en produit matriciel, l’inversibilité en matrice inversible, et le noyau en système linéaire. Tu trouveras ici la définition formelle, la construction pas à pas, les propriétés fondamentales, la formule de changement de base et 8 exercices corrigés.
I. Définition et construction de la matrice d’une application linéaire
A. Rappels sur les applications linéaires
On travaille dans le cadre suivant : \(K\) désigne un corps (typiquement \(\mathbb{R}\) ou \(\mathbb{C}\)), et \(E\), \(F\) sont deux \(K\)-espaces vectoriels de dimensions finies respectives \(p\) et \(n\).
Définition — Application linéaire
Une application \(f : E \to F\) est dite linéaire (ou est un morphisme d’espaces vectoriels) si :
\(\forall (x, y) \in E^2, \; \forall (\lambda, \mu) \in K^2, \quad f(\lambda x + \mu y) = \lambda f(x) + \mu f(y)\)
On note \(\mathcal{L}(E, F)\) l’ensemble des applications linéaires de \(E\) dans \(F\). Lorsque \(E = F\), on parle d’endomorphisme et on note \(\mathcal{L}(E)\).
Un résultat fondamental est le suivant : une application linéaire est entièrement déterminée par les images des vecteurs d’une base. Plus précisément, si \(\mathcal{B} = (e_1, \ldots, e_p)\) est une base de \(E\) et si l’on se donne \(p\) vecteurs quelconques \(v_1, \ldots, v_p \in F\), alors il existe une unique application linéaire \(f \in \mathcal{L}(E, F)\) telle que \(f(e_j) = v_j\) pour tout \(j \in \{1, \ldots, p\}\).
Idée directrice : puisque \(f\) est complètement déterminée par \(f(e_1), \ldots, f(e_p)\), il suffit de stocker ces \(p\) images pour « mémoriser » \(f\). La matrice est précisément cet outil de stockage — organisé en colonnes.
B. Définition formelle de la matrice dans des bases
Fixons une base \(\mathcal{B} = (e_1, \ldots, e_p)\) de \(E\) et une base \(\mathcal{C} = (\varepsilon_1, \ldots, \varepsilon_n)\) de \(F\). Pour tout \(j \in \{1, \ldots, p\}\), le vecteur \(f(e_j) \in F\) se décompose de manière unique dans la base \(\mathcal{C}\) :
\(\displaystyle f(e_j) = \sum_{i=1}^{n} a_{ij} \, \varepsilon_i = a_{1j}\,\varepsilon_1 + a_{2j}\,\varepsilon_2 + \cdots + a_{nj}\,\varepsilon_n\)Définition — Matrice d’une application linéaire
La matrice de \(f\) dans les bases \((\mathcal{B}, \mathcal{C})\) est la matrice \(A = (a_{ij}) \in \mathcal{M}_{n,p}(K)\) dont la \(j\)-ème colonne est le vecteur des coordonnées de \(f(e_j)\) dans la base \(\mathcal{C}\).
On note : \(\mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(f) = A\).
Lorsque \(f \in \mathcal{L}(E)\) est un endomorphisme et que l’on utilise la même base \(\mathcal{B}\) au départ et à l’arrivée, on note simplement \(\mathrm{Mat}_{\mathcal{B}}(f)\). La matrice est alors carrée, de taille \(p \times p\).
Piège — Lignes et colonnes : les coordonnées de \(f(e_j)\) forment la colonne \(j\) de la matrice, pas la ligne \(j\). L’indice \(i\) (ligne) désigne la composante sur \(\varepsilon_i\), et l’indice \(j\) (colonne) désigne le vecteur de base dont on prend l’image. Confondre les deux est l’erreur la plus fréquente en DS.
Propriété fondamentale (calcul de \(f(x)\) via la matrice). Soit \(x \in E\) de coordonnées \(X = \begin{pmatrix} x_1 \\ \vdots \\ x_p \end{pmatrix}\) dans \(\mathcal{B}\). Alors le vecteur \(f(x) \in F\) a pour coordonnées dans \(\mathcal{C}\) le vecteur colonne :
\(Y = A \cdot X\)où \(A = \mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(f)\). En d’autres termes, appliquer \(f\) revient à multiplier par \(A\).
C. Construction colonne par colonne : méthode en 3 étapes
En pratique, pour construire \(\mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(f)\), on procède systématiquement :
- Calculer les images des vecteurs de base : déterminer \(f(e_1), f(e_2), \ldots, f(e_p)\).
- Décomposer chaque image dans la base d’arrivée : pour chaque \(j\), écrire \(f(e_j)\) comme combinaison linéaire des \(\varepsilon_i\).
- Former la matrice colonne par colonne : les coordonnées de \(f(e_j)\) dans \(\mathcal{C}\) donnent la \(j\)-ème colonne de \(A\).
D. Exemples de construction
Exemple 1 — Application de \(\mathbb{R}^2\) dans \(\mathbb{R}^3\) (base canonique)
Soit \(f : \mathbb{R}^2 \to \mathbb{R}^3\) définie par \(f(x, y) = (x + 2y, \; 3x – y, \; x)\).
On travaille dans les bases canoniques \(\mathcal{B} = (e_1, e_2)\) de \(\mathbb{R}^2\) et \(\mathcal{C} = (\varepsilon_1, \varepsilon_2, \varepsilon_3)\) de \(\mathbb{R}^3\).
Étape 1 : \(f(e_1) = f(1, 0) = (1, 3, 1)\) et \(f(e_2) = f(0, 1) = (2, -1, 0)\).
Étape 2 : en base canonique, les coordonnées se lisent directement.
Étape 3 :
\(\mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(f) = \begin{pmatrix} 1 & 2 \\ 3 & -1 \\ 1 & 0 \end{pmatrix} \in \mathcal{M}_{3,2}(\mathbb{R})\)
La matrice a 3 lignes (\(\dim \mathbb{R}^3 = 3\)) et 2 colonnes (\(\dim \mathbb{R}^2 = 2\)).
Exemple 2 — Opérateur de dérivation sur \(\mathbb{R}_2[X]\)
Soit \(D : \mathbb{R}_2[X] \to \mathbb{R}_2[X]\) l’endomorphisme de dérivation, \(D(P) = P^\prime\). On utilise la base canonique \(\mathcal{B} = (1, X, X^2)\).
\(D(1) = 0 = 0 \cdot 1 + 0 \cdot X + 0 \cdot X^2\)
\(D(X) = 1 = 1 \cdot 1 + 0 \cdot X + 0 \cdot X^2\)
\(D(X^2) = 2X = 0 \cdot 1 + 2 \cdot X + 0 \cdot X^2\)
D’où :
\(\mathrm{Mat}_{\mathcal{B}}(D) = \begin{pmatrix} 0 & 1 & 0 \\ 0 & 0 & 2 \\ 0 & 0 & 0 \end{pmatrix}\)
C’est une matrice triangulaire supérieure stricte — et même une matrice nilpotente d’indice 3 (car \(D^3 = 0\) sur \(\mathbb{R}_2[X]\)).
II. Propriétés fondamentales de la représentation matricielle
La construction \(f \mapsto \mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(f)\) n’est pas qu’un simple outil de calcul : c’est un isomorphisme d’espaces vectoriels. Toute l’algèbre linéaire abstraite se traduit en calcul matriciel — et vice versa.
A. Isomorphisme entre \(\mathcal{L}(E, F)\) et \(\mathcal{M}_{n,p}(K)\)
Théorème ⋆ — Isomorphisme fondamental
Soient \(\mathcal{B}\) une base de \(E\) et \(\mathcal{C}\) une base de \(F\). L’application
\(\Phi : \mathcal{L}(E, F) \to \mathcal{M}_{n,p}(K), \quad f \mapsto \mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(f)\)
est un isomorphisme de \(K\)-espaces vectoriels. En particulier :
- \(\forall (f, g) \in \mathcal{L}(E, F)^2, \; \forall (\lambda, \mu) \in K^2 : \quad \mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(\lambda f + \mu g) = \lambda \, \mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(f) + \mu \, \mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(g)\)
- \(\dim \mathcal{L}(E, F) = np\)
Démonstration ⋆.
Linéarité. Soient \(f, g \in \mathcal{L}(E, F)\) et \(\lambda, \mu \in K\). Pour tout \(j \in \{1, \ldots, p\}\) :
\((\lambda f + \mu g)(e_j) = \lambda f(e_j) + \mu g(e_j)\)Si \(f(e_j) = \sum_i a_{ij} \varepsilon_i\) et \(g(e_j) = \sum_i b_{ij} \varepsilon_i\), alors les coordonnées de \((\lambda f + \mu g)(e_j)\) sont \(\lambda a_{ij} + \mu b_{ij}\), ce qui donne la colonne \(j\) de \(\lambda A + \mu B\). Donc \(\Phi\) est linéaire.
Injectivité. Si \(\mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(f) = 0\), alors \(f(e_j) = 0\) pour tout \(j\). Puisque \((e_1, \ldots, e_p)\) est une base de \(E\), on en déduit \(f = 0\) par linéarité. Donc \(\ker \Phi = \{0\}\).
Surjectivité. Soit \(A = (a_{ij}) \in \mathcal{M}_{n,p}(K)\). On pose \(v_j = \displaystyle\sum_{i=1}^{n} a_{ij} \varepsilon_i\) pour tout \(j\). Par le théorème d’existence et d’unicité, il existe \(f \in \mathcal{L}(E, F)\) telle que \(f(e_j) = v_j\) pour tout \(j\). Par construction, \(\mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(f) = A\). ■
Conséquence clé : à bases fixées, il y a bijection entre les applications linéaires de \(E\) dans \(F\) et les matrices de \(\mathcal{M}_{n,p}(K)\). Chaque matrice « code » exactement une application linéaire, et chaque application linéaire « se code » par exactement une matrice.
B. Matrice d’une composée = produit des matrices
C’est le théorème le plus important de ce chapitre. Il répond à une question que tout étudiant se pose un jour : pourquoi la multiplication de matrices est-elle définie de cette façon étrange (lignes × colonnes) ?
Théorème ⋆ — Matrice d’une composée
Soient \(E\), \(F\), \(G\) trois \(K\)-ev de dimensions finies, \(\mathcal{B}\) une base de \(E\), \(\mathcal{C}\) une base de \(F\), \(\mathcal{D}\) une base de \(G\). Soient \(f \in \mathcal{L}(E, F)\) et \(g \in \mathcal{L}(F, G)\). Alors :
\(\mathrm{Mat}_{\mathcal{B}, \mathcal{D}}(g \circ f) = \mathrm{Mat}_{\mathcal{C}, \mathcal{D}}(g) \cdot \mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(f)\)
Autrement dit : la matrice de la composée est le produit des matrices.
Démonstration ⋆.
Notons \(A = \mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(f)\) et \(B = \mathrm{Mat}_{\mathcal{C}, \mathcal{D}}(g)\). Soit \(x \in E\) de vecteur de coordonnées \(X\) dans \(\mathcal{B}\).
Le vecteur \(f(x)\) a pour coordonnées \(Y = AX\) dans \(\mathcal{C}\). Puis \(g(f(x))\) a pour coordonnées \(Z = BY = B(AX) = (BA)X\) dans \(\mathcal{D}\).
Par unicité de la matrice, \(\mathrm{Mat}_{\mathcal{B}, \mathcal{D}}(g \circ f) = BA\). ■
Pourquoi ce théorème est central : la multiplication matricielle n’a pas été définie arbitrairement. Elle a été construite précisément pour que la matrice d’une composée soit le produit des matrices. C’est la raison profonde de la formule « lignes × colonnes ».
Attention à l’ordre : \(g \circ f\) se traduit par \(B \cdot A\) (pas \(A \cdot B\)). La matrice de l’application appliquée en dernier se place à gauche dans le produit. C’est cohérent avec la notation \(Y = AX\) : on « lit de droite à gauche ».
C. Matrice d’un isomorphisme et matrice inversible
Théorème — Isomorphisme et inversibilité
Soient \(f \in \mathcal{L}(E, F)\), \(\mathcal{B}\) une base de \(E\), \(\mathcal{C}\) une base de \(F\), et \(A = \mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(f)\). Alors :
\(f \text{ est un isomorphisme} \iff A \text{ est inversible}\)
et dans ce cas : \(\mathrm{Mat}_{\mathcal{C}, \mathcal{B}}(f^{-1}) = A^{-1}\).
Ce résultat est une conséquence directe du théorème précédent : \(f \circ f^{-1} = \mathrm{id}_F\) se traduit par \(A \cdot A^{-1} = I_n\), et \(f^{-1} \circ f = \mathrm{id}_E\) par \(A^{-1} \cdot A = I_p\). En particulier, \(n = p\) (et \(\dim E = \dim F\)). Pour les méthodes concrètes de calcul de l’inverse, consulte la page inverse d’une matrice.
D. Le dictionnaire applications linéaires — matrices
Voici la correspondance complète entre les concepts de l’algèbre linéaire abstraite et leur traduction matricielle. Ce tableau est l’outil de référence pour naviguer entre les deux points de vue.
| Application linéaire | Matrice (dans des bases fixées) | Page du cocon |
|---|---|---|
| \(f \in \mathcal{L}(E, F)\) | \(A \in \mathcal{M}_{n,p}(K)\) | Cette page |
| \(\lambda f + \mu g\) | \(\lambda A + \mu B\) | — |
| \(g \circ f\) | \(BA\) (produit) | Multiplication |
| \(f\) isomorphisme | \(A\) inversible | Matrice inversible |
| \(f^{-1}\) | \(A^{-1}\) | Inverse |
| \(\ker f\) | \(\{X \in K^p : AX = 0\}\) | Noyau |
| \(\mathrm{Im}\,f\) | Espace engendré par les colonnes de \(A\) | — |
| \(\mathrm{rg}(f)\) | \(\mathrm{rg}(A)\) | Rang |
| \(\mathrm{id}_E\) | \(I_n\) (matrice identité) | Identité |
| Changement de base | \(P^{-1}AP\) (similitude) | Changement de base |
| Valeurs propres de \(f\) | Racines de \(\det(A – \lambda I)\) | Valeurs propres |
| \(f\) diagonalisable | \(A\) semblable à une matrice diagonale | Diagonalisation |
Ce dictionnaire montre que chaque question sur les applications linéaires se traduit en un problème matriciel — et réciproquement. C’est la raison pour laquelle les matrices sont omniprésentes en algèbre linéaire.
Fiche de révision : matrice d’une application linéaire
Définition, construction colonne par colonne, formule de changement de base et dictionnaire complet — tout le cours résumé en une page recto-verso.
📄 Télécharger la fiche PDFIdéal pour tes révisions de colles et de DS d’algèbre linéaire.
III. Changement de base et matrices semblables
La matrice d’une application linéaire dépend du choix des bases. Changer de base modifie la matrice — mais pas l’application linéaire sous-jacente. Comprendre cette transformation est essentiel, notamment pour la diagonalisation. Pour un traitement complet, consulte la page dédiée au changement de base.
A. Matrice de passage entre deux bases
Définition — Matrice de passage
Soient \(\mathcal{B} = (e_1, \ldots, e_p)\) et \(\mathcal{B}^\prime = (e_1^\prime, \ldots, e_p^\prime)\) deux bases de \(E\). La matrice de passage de \(\mathcal{B}\) à \(\mathcal{B}^\prime\) est la matrice :
\(P_{\mathcal{B} \to \mathcal{B}^\prime} = \mathrm{Mat}_{\mathcal{B}}(\mathcal{B}^\prime)\)
dont la \(j\)-ème colonne contient les coordonnées de \(e_j^\prime\) dans la base \(\mathcal{B}\).
Cette matrice est toujours inversible, et \(P_{\mathcal{B} \to \mathcal{B}^\prime}^{-1} = P_{\mathcal{B}^\prime \to \mathcal{B}}\).
Convention de notation : dans la suite, on note \(P\) la matrice de passage de \(\mathcal{B}\) à \(\mathcal{B}^\prime\) dans \(E\), et \(Q\) la matrice de passage de \(\mathcal{C}\) à \(\mathcal{C}^\prime\) dans \(F\).
Relation coordonnées. Si \(X\) et \(X^\prime\) sont les vecteurs de coordonnées d’un même vecteur \(x \in E\) dans les bases \(\mathcal{B}\) et \(\mathcal{B}^\prime\) respectivement, alors :
\(X = P \cdot X^\prime\)B. Formule de changement de base
Théorème ⋆ — Formule de changement de base
Soit \(f \in \mathcal{L}(E, F)\). Notons \(A = \mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(f)\) la matrice de \(f\) dans les bases \((\mathcal{B}, \mathcal{C})\). Si \(P\) est la matrice de passage de \(\mathcal{B}\) à \(\mathcal{B}^\prime\) et \(Q\) celle de \(\mathcal{C}\) à \(\mathcal{C}^\prime\), alors :
\(\mathrm{Mat}_{\mathcal{B}^\prime, \mathcal{C}^\prime}(f) = Q^{-1} \cdot A \cdot P\)
Cas particulier des endomorphismes (\(E = F\), mêmes bases au départ et à l’arrivée) :
\(\mathrm{Mat}_{\mathcal{B}^\prime}(f) = P^{-1} \cdot \mathrm{Mat}_{\mathcal{B}}(f) \cdot P\)
Démonstration ⋆.
Soit \(x \in E\). Notons \(X, X^\prime\) ses coordonnées dans \(\mathcal{B}, \mathcal{B}^\prime\) et \(Y, Y^\prime\) les coordonnées de \(f(x)\) dans \(\mathcal{C}, \mathcal{C}^\prime\). On a :
\(X = P \cdot X^\prime \quad \text{et} \quad Y = Q \cdot Y^\prime\)Or \(Y = AX\) (définition de \(A\)). Donc :
\(Q \cdot Y^\prime = A \cdot P \cdot X^\prime \Rightarrow Y^\prime = Q^{-1} A P \cdot X^\prime\)Ceci étant vrai pour tout \(x \in E\) (donc pour tout \(X^\prime \in K^p\)), on conclut \(\mathrm{Mat}_{\mathcal{B}^\prime, \mathcal{C}^\prime}(f) = Q^{-1}AP\). ■
Piège — L’ordre dans \(P^{-1}AP\) : pour un endomorphisme, la formule est \(P^{-1}AP\), pas \(PAP^{-1}\). L’inverse est à gauche. Moyen mnémotechnique : le vecteur \(X^\prime\) est à droite, donc \(P\) (qui convertit \(X^\prime\) en \(X\)) est à droite de \(A\), et \(Q^{-1}\) (qui convertit \(Y\) en \(Y^\prime\)) est à gauche.
C. Matrices semblables : définition et invariants
Définition — Matrices semblables
Deux matrices \(A, B \in \mathcal{M}_n(K)\) sont dites semblables s’il existe \(P \in GL_n(K)\) telle que \(B = P^{-1}AP\).
Interprétation : \(A\) et \(B\) sont semblables si et seulement si elles représentent le même endomorphisme dans des bases différentes.
La similitude est une relation d’équivalence sur \(\mathcal{M}_n(K)\). Des matrices semblables partagent de nombreux invariants :
- Même trace : \(\mathrm{tr}(P^{-1}AP) = \mathrm{tr}(A)\)
- Même déterminant : \(\det(P^{-1}AP) = \det(A)\)
- Même polynôme caractéristique : \(\det(P^{-1}AP – \lambda I) = \det(A – \lambda I)\)
- Même rang
- Mêmes valeurs propres (avec mêmes multiplicités)
Lien avec la diagonalisation : diagonaliser un endomorphisme \(f\), c’est trouver une base \(\mathcal{B}^\prime\) dans laquelle \(\mathrm{Mat}_{\mathcal{B}^\prime}(f)\) est diagonale. Matriciellement, cela revient à trouver \(P\) inversible telle que \(P^{-1}AP = D\) avec \(D\) diagonale. Les colonnes de \(P\) sont alors les vecteurs propres de \(f\), et les coefficients diagonaux de \(D\) sont les valeurs propres.
IV. Erreurs fréquentes et pièges classiques
Erreur 1 — Confondre \(f\) et \(\mathrm{Mat}(f)\)
❌ Copie fautive : « La matrice \(A\) est une application linéaire de \(\mathbb{R}^2\) dans \(\mathbb{R}^3\). »
Diagnostic : la matrice \(A\) est un tableau de nombres. L’application linéaire \(f\) est une fonction entre espaces vectoriels. La matrice représente \(f\) dans des bases données, mais elle n’est pas \(f\). La même application linéaire a des matrices différentes selon les bases choisies.
✅ Correction : « \(A\) est la matrice de l’application linéaire \(f : \mathbb{R}^2 \to \mathbb{R}^3\) dans les bases canoniques. »
Erreur 2 — Inverser lignes et colonnes
❌ Copie fautive : « La \(j\)-ème ligne de \(\mathrm{Mat}(f)\) contient les coordonnées de \(f(e_j)\). »
Diagnostic : ce sont les colonnes, pas les lignes. La convention est universelle : colonne \(j\) = coordonnées de \(f(e_j)\).
✅ Correction : « La \(j\)-ème colonne de \(\mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(f)\) contient les coordonnées de \(f(e_j)\) dans \(\mathcal{C}\). »
Erreur 3 — Se tromper dans les dimensions de la matrice
❌ Copie fautive : « \(f : \mathbb{R}^3 \to \mathbb{R}^2\), donc \(\mathrm{Mat}(f) \in \mathcal{M}_{3,2}(\mathbb{R})\). »
Diagnostic : le nombre de lignes est la dimension de l’espace d’arrivée, le nombre de colonnes est la dimension de l’espace de départ.
✅ Correction : « \(\mathrm{Mat}(f) \in \mathcal{M}_{2,3}(\mathbb{R})\) (2 lignes, 3 colonnes). »
Erreur 4 — Oublier de préciser les bases
❌ Copie fautive : « La matrice de \(f\) est \(A\). »
Diagnostic : la matrice de \(f\) n’a de sens que relativement à un choix de bases. En concours, le correcteur attend une phrase complète.
✅ Correction : « La matrice de \(f\) dans les bases \((\mathcal{B}, \mathcal{C})\) est \(A = \mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(f) = \ldots\) »
Erreur 5 — Écrire \(PAP^{-1}\) au lieu de \(P^{-1}AP\)
La formule de changement de base pour un endomorphisme est \(\mathrm{Mat}_{\mathcal{B}^\prime}(f) = P^{-1} \mathrm{Mat}_{\mathcal{B}}(f) \, P\), où \(P\) est la matrice de passage de \(\mathcal{B}\) à \(\mathcal{B}^\prime\). L’inverse est toujours à gauche.
V. Exercices corrigés
Voici 8 exercices classés par difficulté croissante, du calcul direct (★) aux problèmes de synthèse type concours (★★★). Chaque correction est détaillée pas à pas.
Exercice 1 ★ — Matrice d’une application linéaire en base canonique
Soit \(f : \mathbb{R}^2 \to \mathbb{R}^3\) définie par \(f(x, y) = (x + 2y, \; 3x – y, \; x)\). Écrire la matrice de \(f\) dans les bases canoniques.
Voir la correction
On calcule les images des vecteurs de la base canonique \((e_1, e_2)\) de \(\mathbb{R}^2\) :
\(f(e_1) = f(1, 0) = (1, 3, 1)\) \(f(e_2) = f(0, 1) = (2, -1, 0)\)En base canonique de \(\mathbb{R}^3\), les coordonnées se lisent directement. D’où :
\(\mathrm{Mat}(f) = \begin{pmatrix} 1 & 2 \\ 3 & -1 \\ 1 & 0 \end{pmatrix} \in \mathcal{M}_{3,2}(\mathbb{R})\)Vérification : \(\begin{pmatrix} 1 & 2 \\ 3 & -1 \\ 1 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} x + 2y \\ 3x – y \\ x \end{pmatrix}\) ✓
Exercice 2 ★ — Opérateur de dérivation sur \(\mathbb{R}_3[X]\)
Soit \(D : \mathbb{R}_3[X] \to \mathbb{R}_3[X]\) l’endomorphisme défini par \(D(P) = P^\prime\). Écrire \(\mathrm{Mat}_{\mathcal{B}}(D)\) dans la base canonique \(\mathcal{B} = (1, X, X^2, X^3)\).
Voir la correction
On calcule les images des vecteurs de base :
- \(D(1) = 0 = 0 \cdot 1 + 0 \cdot X + 0 \cdot X^2 + 0 \cdot X^3\)
- \(D(X) = 1 = 1 \cdot 1 + 0 \cdot X + 0 \cdot X^2 + 0 \cdot X^3\)
- \(D(X^2) = 2X = 0 \cdot 1 + 2 \cdot X + 0 \cdot X^2 + 0 \cdot X^3\)
- \(D(X^3) = 3X^2 = 0 \cdot 1 + 0 \cdot X + 3 \cdot X^2 + 0 \cdot X^3\)
D’où :
\(\mathrm{Mat}_{\mathcal{B}}(D) = \begin{pmatrix} 0 & 1 & 0 & 0 \\ 0 & 0 & 2 & 0 \\ 0 & 0 & 0 & 3 \\ 0 & 0 & 0 & 0 \end{pmatrix}\)C’est une matrice triangulaire supérieure stricte. On peut vérifier que \(D^4 = 0\) sur \(\mathbb{R}_3[X]\), donc \(D\) est nilpotent d’indice 4.
Exercice 3 ★★ — Matrice dans une base de vecteurs propres
Soit \(f : \mathbb{R}^2 \to \mathbb{R}^2\) définie par \(f(x, y) = (2x + y, \; x + 2y)\).
- Écrire la matrice \(A\) de \(f\) dans la base canonique.
- Vérifier que \(u_1 = (1, 1)\) et \(u_2 = (1, -1)\) sont des vecteurs propres de \(f\). Préciser les valeurs propres.
- Écrire la matrice de \(f\) dans la base \(\mathcal{B}^\prime = (u_1, u_2)\).
Voir la correction
1. \(f(e_1) = (2, 1)\), \(f(e_2) = (1, 2)\), d’où \(A = \begin{pmatrix} 2 & 1 \\ 1 & 2 \end{pmatrix}\).
2. \(f(1, 1) = (2 + 1, 1 + 2) = (3, 3) = 3(1, 1) = 3u_1\). Donc \(u_1\) est vecteur propre associé à \(\lambda_1 = 3\).
\(f(1, -1) = (2 – 1, 1 – 2) = (1, -1) = 1 \cdot u_2\). Donc \(u_2\) est vecteur propre associé à \(\lambda_2 = 1\).
3. Puisque \(f(u_1) = 3u_1 = 3 \cdot u_1 + 0 \cdot u_2\) et \(f(u_2) = u_2 = 0 \cdot u_1 + 1 \cdot u_2\), on obtient directement :
\(\mathrm{Mat}_{\mathcal{B}^\prime}(f) = \begin{pmatrix} 3 & 0 \\ 0 & 1 \end{pmatrix}\)La matrice est diagonale : dans la base de vecteurs propres, l’endomorphisme s’exprime de la manière la plus simple possible. C’est tout le principe de la diagonalisation.
Exercice 4 ★★ — Noyau et image à partir de la matrice
Soit \(f \in \mathcal{L}(\mathbb{R}^3)\) l’endomorphisme dont la matrice dans la base canonique est \(A = \begin{pmatrix} 1 & 2 & -1 \\ 2 & 4 & -2 \\ -1 & -2 & 1 \end{pmatrix}\).
- Déterminer \(\ker f\) et \(\mathrm{Im}\,f\).
- Vérifier le théorème du rang.
Voir la correction
1. Noyau. On résout \(AX = 0\). On échelonne \(A\) :
\(L_2 \leftarrow L_2 – 2L_1, \quad L_3 \leftarrow L_3 + L_1 : \quad \begin{pmatrix} 1 & 2 & -1 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}\)Le système réduit donne \(x + 2y – z = 0\), soit \(x = -2y + z\) avec \(y, z\) libres :
\(\ker f = \left\{ \begin{pmatrix} -2y + z \\ y \\ z \end{pmatrix} : (y, z) \in \mathbb{R}^2 \right\} = \mathrm{Vect}\left(\begin{pmatrix} -2 \\ 1 \\ 0 \end{pmatrix}, \begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix}\right)\)Donc \(\dim \ker f = 2\).
Image. \(\mathrm{Im}\,f = \mathrm{Vect}(C_1, C_2, C_3)\) où \(C_j\) sont les colonnes de \(A\). Or \(C_2 = 2C_1\) et \(C_3 = -C_1\), donc :
\(\mathrm{Im}\,f = \mathrm{Vect}\left(\begin{pmatrix} 1 \\ 2 \\ -1 \end{pmatrix}\right), \quad \dim \mathrm{Im}\,f = 1\)2. \(\dim \ker f + \mathrm{rg}(f) = 2 + 1 = 3 = \dim \mathbb{R}^3\) ✓ (théorème du rang).
Exercice 5 ★★ — Matrice d’une composée
Soient \(f : \mathbb{R}^2 \to \mathbb{R}^3\) et \(g : \mathbb{R}^3 \to \mathbb{R}^2\) définies par :
\(f(x, y) = (x + y, \; 2x, \; y) \quad \text{et} \quad g(a, b, c) = (a – c, \; b + c)\)- Écrire \(A = \mathrm{Mat}(f)\) et \(B = \mathrm{Mat}(g)\) dans les bases canoniques.
- En déduire \(\mathrm{Mat}(g \circ f)\).
- Vérifier par le calcul direct.
Voir la correction
1.
\(A = \mathrm{Mat}(f) = \begin{pmatrix} 1 & 1 \\ 2 & 0 \\ 0 & 1 \end{pmatrix} \in \mathcal{M}_{3,2}(\mathbb{R}), \quad B = \mathrm{Mat}(g) = \begin{pmatrix} 1 & 0 & -1 \\ 0 & 1 & 1 \end{pmatrix} \in \mathcal{M}_{2,3}(\mathbb{R})\)2. \(\mathrm{Mat}(g \circ f) = B \cdot A\) :
\(BA = \begin{pmatrix} 1 & 0 & -1 \\ 0 & 1 & 1 \end{pmatrix} \begin{pmatrix} 1 & 1 \\ 2 & 0 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 \cdot 1 + 0 \cdot 2 + (-1) \cdot 0 & 1 \cdot 1 + 0 \cdot 0 + (-1) \cdot 1 \\ 0 \cdot 1 + 1 \cdot 2 + 1 \cdot 0 & 0 \cdot 1 + 1 \cdot 0 + 1 \cdot 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 2 & 1 \end{pmatrix}\)3. Calcul direct : \((g \circ f)(x, y) = g(x + y, 2x, y) = ((x + y) – y, \; 2x + y) = (x, \; 2x + y)\).
Donc \((g \circ f)(1, 0) = (1, 2)\) et \((g \circ f)(0, 1) = (0, 1)\), ce qui redonne bien \(\begin{pmatrix} 1 & 0 \\ 2 & 1 \end{pmatrix}\) ✓.
Exercice 6 ★★ — Changement de base explicite
Soit \(f : \mathbb{R}^2 \to \mathbb{R}^2\) dont la matrice dans la base canonique \(\mathcal{B}\) est \(A = \begin{pmatrix} 3 & 1 \\ 0 & 2 \end{pmatrix}\). On pose \(\mathcal{B}^\prime = ((1, 0), (1, 1))\).
- Calculer la matrice de \(f\) dans \(\mathcal{B}^\prime\) par la méthode directe (images des vecteurs de \(\mathcal{B}^\prime\)).
- Retrouver le résultat avec la formule \(P^{-1}AP\).
Voir la correction
1. Méthode directe.
\(f(1, 0) = (3, 0)\). On décompose dans \(\mathcal{B}^\prime\) : \((3, 0) = a(1, 0) + b(1, 1)\) donne \(a + b = 3\) et \(b = 0\), soit \(a = 3, b = 0\). Colonne 1 : \(\begin{pmatrix} 3 \\ 0 \end{pmatrix}\).
\(f(1, 1) = (3 + 1, 0 + 2) = (4, 2)\). On décompose : \((4, 2) = a(1, 0) + b(1, 1)\) donne \(a + b = 4\) et \(b = 2\), soit \(a = 2, b = 2\). Colonne 2 : \(\begin{pmatrix} 2 \\ 2 \end{pmatrix}\).
\(\mathrm{Mat}_{\mathcal{B}^\prime}(f) = \begin{pmatrix} 3 & 2 \\ 0 & 2 \end{pmatrix}\)2. Formule \(P^{-1}AP\).
Matrice de passage \(P\) de \(\mathcal{B}\) à \(\mathcal{B}^\prime\) (colonnes = coordonnées de \(\mathcal{B}^\prime\) dans \(\mathcal{B}\)) :
\(P = \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}, \quad P^{-1} = \begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix}\) \(AP = \begin{pmatrix} 3 & 1 \\ 0 & 2 \end{pmatrix} \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} 3 & 4 \\ 0 & 2 \end{pmatrix}\)\(P^{-1}(AP) = \begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix} \begin{pmatrix} 3 & 4 \\ 0 & 2 \end{pmatrix} = \begin{pmatrix} 3 & 2 \\ 0 & 2 \end{pmatrix}\) ✓
Exercice 7 ★★★ — Similitude par diagonalisation
Soient \(A = \begin{pmatrix} 5 & -6 \\ 3 & -4 \end{pmatrix}\) et \(B = \begin{pmatrix} -1 & 0 \\ 0 & 2 \end{pmatrix}\).
- Diagonaliser \(A\).
- En déduire que \(A\) et \(B\) sont semblables. Déterminer \(Q \in GL_2(\mathbb{R})\) telle que \(B = Q^{-1}AQ\).
Voir la correction
1. Polynôme caractéristique de \(A\) :
\(\det(A – \lambda I) = (5 – \lambda)(-4 – \lambda) + 18 = \lambda^2 – \lambda – 2 = (\lambda – 2)(\lambda + 1)\)Valeurs propres : \(\lambda_1 = 2\) et \(\lambda_2 = -1\).
Espaces propres :
\(\lambda_1 = 2 : \ker(A – 2I) = \ker \begin{pmatrix} 3 & -6 \\ 3 & -6 \end{pmatrix} = \mathrm{Vect}\begin{pmatrix} 2 \\ 1 \end{pmatrix}\) \(\lambda_2 = -1 : \ker(A + I) = \ker \begin{pmatrix} 6 & -6 \\ 3 & -3 \end{pmatrix} = \mathrm{Vect}\begin{pmatrix} 1 \\ 1 \end{pmatrix}\)Avec \(P_1 = \begin{pmatrix} 2 & 1 \\ 1 & 1 \end{pmatrix}\), on a \(P_1^{-1} A P_1 = D = \begin{pmatrix} 2 & 0 \\ 0 & -1 \end{pmatrix}\).
2. La matrice \(B\) est déjà diagonale avec les valeurs propres \(-1\) et \(2\) (dans un ordre différent). Avec la permutation \(P_2 = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}\), on a \(P_2^{-1} D P_2 = B\).
Donc \(B = P_2^{-1} (P_1^{-1} A P_1) P_2 = (P_1 P_2)^{-1} A (P_1 P_2)\).
Posons \(Q = P_1 P_2 = \begin{pmatrix} 2 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} = \begin{pmatrix} 1 & 2 \\ 1 & 1 \end{pmatrix}\).
Vérification : \(Q^{-1} = \begin{pmatrix} -1 & 2 \\ 1 & -1 \end{pmatrix}\) (car \(\det Q = -1\)).
\(Q^{-1} A Q = \begin{pmatrix} -1 & 2 \\ 1 & -1 \end{pmatrix} \begin{pmatrix} 5 & -6 \\ 3 & -4 \end{pmatrix} \begin{pmatrix} 1 & 2 \\ 1 & 1 \end{pmatrix}\)\(= \begin{pmatrix} 1 & -2 \\ 2 & -2 \end{pmatrix} \begin{pmatrix} 1 & 2 \\ 1 & 1 \end{pmatrix} = \begin{pmatrix} -1 & 0 \\ 0 & 2 \end{pmatrix} = B\) ✓
Exercice 8 ★★★ — Projecteur et base adaptée
Soit \(p : \mathbb{R}^3 \to \mathbb{R}^3\) défini par \(p(x, y, z) = \left(\displaystyle\frac{x + y}{2}, \; \displaystyle\frac{x + y}{2}, \; z\right)\).
- Écrire la matrice \(A\) de \(p\) dans la base canonique.
- Montrer que \(p^2 = p\) (i.e. \(p\) est un projecteur).
- Déterminer \(\ker p\) et \(\mathrm{Im}\,p\). Vérifier que \(\mathbb{R}^3 = \ker p \oplus \mathrm{Im}\,p\).
- Donner une base \(\mathcal{B}^\prime\) adaptée à cette décomposition et écrire \(\mathrm{Mat}_{\mathcal{B}^\prime}(p)\).
Voir la correction
1.
\(p(e_1) = \left(\displaystyle\frac{1}{2}, \displaystyle\frac{1}{2}, 0\right), \quad p(e_2) = \left(\displaystyle\frac{1}{2}, \displaystyle\frac{1}{2}, 0\right), \quad p(e_3) = (0, 0, 1)\) \(A = \begin{pmatrix} \displaystyle\frac{1}{2} & \displaystyle\frac{1}{2} & 0 \\[6pt] \displaystyle\frac{1}{2} & \displaystyle\frac{1}{2} & 0 \\[6pt] 0 & 0 & 1 \end{pmatrix}\)2. On calcule \(p(p(x, y, z)) = p\!\left(\displaystyle\frac{x+y}{2}, \displaystyle\frac{x+y}{2}, z\right)\) :
\(= \left(\displaystyle\frac{\displaystyle\frac{x+y}{2} + \displaystyle\frac{x+y}{2}}{2}, \; \displaystyle\frac{\displaystyle\frac{x+y}{2} + \displaystyle\frac{x+y}{2}}{2}, \; z\right) = \left(\displaystyle\frac{x+y}{2}, \; \displaystyle\frac{x+y}{2}, \; z\right) = p(x, y, z)\)Donc \(p^2 = p\) ✓.
3. \(\ker p = \{(x, y, z) : \displaystyle\frac{x+y}{2} = 0 \text{ et } z = 0\} = \{(x, -x, 0) : x \in \mathbb{R}\} = \mathrm{Vect}\begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix}\).
\(\mathrm{Im}\,p = \mathrm{Vect}(p(e_1), p(e_2), p(e_3)) = \mathrm{Vect}\left(\begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix}, \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}\right)\).
\(\dim \ker p = 1\), \(\dim \mathrm{Im}\,p = 2\), \(1 + 2 = 3 = \dim \mathbb{R}^3\) ✓.
De plus, \(\ker p \cap \mathrm{Im}\,p = \{0\}\) (un vecteur \((a, -a, 0)\) ne peut pas être de la forme \(\alpha(1,1,0) + \beta(0,0,1)\) sauf si \(a = 0\)). Donc \(\mathbb{R}^3 = \ker p \oplus \mathrm{Im}\,p\).
4. On choisit \(\mathcal{B}^\prime\) en concaténant une base de \(\ker p\) puis une base de \(\mathrm{Im}\,p\) :
\(\mathcal{B}^\prime = \left(\begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix}, \begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix}, \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix}\right)\)Dans cette base :
- \(p(1, -1, 0) = (0, 0, 0)\) → colonne 1 : \((0, 0, 0)^T\)
- \(p(1, 1, 0) = (1, 1, 0)\) → colonne 2 : \((0, 1, 0)^T\)
- \(p(0, 0, 1) = (0, 0, 1)\) → colonne 3 : \((0, 0, 1)^T\)
La matrice est diagonale avec des 0 (correspondant à \(\ker p\)) et des 1 (correspondant à \(\mathrm{Im}\,p\)). C’est la forme canonique de tout projecteur.
VI. Questions fréquentes
Comment trouver la matrice d'une application linéaire dans une base ?
Trois étapes systématiques : (1) calculer les images de chaque vecteur de la base de départ, (2) décomposer chaque image dans la base d’arrivée pour lire les coordonnées, (3) placer les coordonnées en colonnes dans la matrice. La \(j\)-ème colonne de la matrice contient les coordonnées de \(f(e_j)\). Attention : ce sont bien des colonnes, pas des lignes.
Quelle est la différence entre une application linéaire et sa matrice ?
L’application linéaire \(f : E \to F\) est un objet intrinsèque : elle existe indépendamment de tout choix de base. La matrice \(\mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(f)\) est une représentation numérique de \(f\) qui dépend des bases \(\mathcal{B}\) et \(\mathcal{C}\) choisies. Changer de base modifie la matrice (via la formule \(Q^{-1}AP\)), mais l’application linéaire reste la même. C’est comme une personne et sa photo : la photo dépend de l’angle, la personne non.
Pourquoi la matrice d'une application linéaire dépend-elle de la base ?
Parce que les coordonnées d’un vecteur dépendent de la base. Si tu changes de base dans \(E\) ou dans \(F\), les coordonnées de \(f(e_j)\) changent, et donc la matrice change. Le théorème de changement de base donne la relation exacte : \(\mathrm{Mat}_{\mathcal{B}^\prime, \mathcal{C}^\prime}(f) = Q^{-1} \mathrm{Mat}_{\mathcal{B}, \mathcal{C}}(f) \, P\). C’est cette dépendance qui rend le choix d’une « bonne base » si important (par exemple pour diagonaliser).
Que signifie matrices semblables ?
Deux matrices \(A\) et \(B\) de \(\mathcal{M}_n(K)\) sont semblables s’il existe une matrice inversible \(P\) telle que \(B = P^{-1}AP\). Cela signifie que \(A\) et \(B\) représentent le même endomorphisme dans des bases différentes. Les matrices semblables partagent les mêmes trace, déterminant, rang, polynôme caractéristique et valeurs propres.
Quel est le lien entre matrice d'une application linéaire et diagonalisation ?
Diagonaliser un endomorphisme \(f\), c’est trouver une base \(\mathcal{B}^\prime\) dans laquelle la matrice \(\mathrm{Mat}_{\mathcal{B}^\prime}(f)\) est diagonale. Matriciellement, cela revient à trouver \(P\) inversible telle que \(P^{-1}AP = D\) diagonale. Les colonnes de \(P\) sont les vecteurs propres, et les coefficients diagonaux de \(D\) sont les valeurs propres. Le calcul de \(A^n\) se ramène alors à \(PD^nP^{-1}\) (cf. matrice puissance).
VII. Pour aller plus loin
Tu maîtrises maintenant la matrice d’une application linéaire : sa définition, sa construction, ses propriétés algébriques et la formule de changement de base. Ce concept est le socle de toute l’algèbre linéaire calculatoire.
Prolongements naturels :
- Matrice de changement de base — traitement complet de la formule \(P^{-1}AP\), construction de \(P\) et applications
- Diagonalisation d’une matrice — trouver la « meilleure base » pour simplifier un endomorphisme
- Noyau d’une matrice — résoudre \(AX = 0\) et ses applications
- Rang d’une matrice — méthodes de calcul et théorème du rang
- Valeurs propres et vecteurs propres — spectre d’un endomorphisme
- Exercices corrigés sur les matrices — entraînement transversal type concours
Application concrète : la représentation matricielle intervient dans tous les domaines qui utilisent l’algèbre linéaire — rotations en informatique graphique (matrices de \(SO(3)\)), chaînes de Markov en probabilités (matrices stochastiques et puissances de matrices), ou encore transformations de Fourier discrètes en traitement du signal.
Conforme au programme officiel des CPGE scientifiques (MPSI, PCSI, MP, PC, PSI) — année scolaire 2025-2026.