Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec le niveau d’exigence attendu en classe préparatoire. Découvrir le professeur
Sans la matrice identité, impossible de définir l’inversibilité d’une matrice, impossible de calculer un polynôme caractéristique, impossible de parler de groupe linéaire. Elle joue en algèbre linéaire le rôle du nombre 1 dans l’arithmétique : c’est l’élément neutre de la multiplication matricielle. Tu trouveras ici sa définition formelle via le symbole de Kronecker, toutes ses propriétés fondamentales avec démonstrations, son rôle dans les grandes constructions de l’algèbre linéaire, et 6 exercices corrigés de difficulté croissante.
I. Définition de la matrice identité
A. Définition formelle et symbole de Kronecker
La définition de la matrice identité repose sur un outil simple mais fondamental : le symbole de Kronecker.
Définition — Symbole de Kronecker
Pour tout couple d’entiers \((i, j) \in \mathbb{N}^2\), le symbole de Kronecker est défini par :
\(\delta_{ij} = \begin{cases} 1 & \text{si } i = j \\ 0 & \text{si } i \neq j \end{cases}\)
Ce symbole permet de donner une expression compacte de la matrice identité.
Définition — Matrice identité
Soit \(n \in \mathbb{N}^*\) et \(\mathbb{K}\) un corps. La matrice identité d’ordre \(n\), notée \(I_n\), est la matrice carrée de \(\mathcal{M}_n(\mathbb{K})\) dont le coefficient en position \((i, j)\) vaut \(\delta_{ij}\) :
\(I_n = (\delta_{ij})_{1 \leq i, j \leq n}\)
Autrement dit, \(I_n\) est la matrice carrée dont tous les coefficients diagonaux valent \(1\) et tous les coefficients hors-diagonale valent \(0\).
Sous forme explicite, la matrice identité s’écrit :
\(I_n = \begin{pmatrix} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & 1 \end{pmatrix}\)B. Notation et conventions en CPGE
La notation standard en classes préparatoires scientifiques est \(I_n\), où l’indice \(n\) désigne l’ordre de la matrice. Plusieurs conventions coexistent :
- \(I_n\) : notation la plus courante dans les manuels français (Gourdon, Monier, Deschamps) et les sujets de concours.
- \(I\) : notation abrégée lorsque l’ordre \(n\) est sans ambiguïté dans le contexte.
- \(\mathrm{Id}_n\) : parfois utilisée pour souligner le lien avec l’application linéaire identité.
Convention de rédaction : aux concours, précise toujours l’ordre \(n\) la première fois que tu utilises \(I_n\). Par la suite, si le contexte ne laisse aucune ambiguïté (tu travailles dans \(\mathcal{M}_n(\mathbb{K})\) depuis le début du problème), tu peux écrire simplement \(I\). En cas de doute, écris \(I_n\) : un excès de précision n’est jamais sanctionné.
Remarque : dans la littérature anglo-saxonne, on rencontre aussi \(E_n\) (Einheitsmatrix en allemand). Les sujets de concours français utilisent exclusivement \(I_n\) ou \(I\).
C. Exemples en petite dimension
Écrivons les premières matrices identité :
\(I_1 = (1), \quad I_2 = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}, \quad I_3 = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}\)Exemple — Lecture des coefficients de \(I_3\)
Pour \(I_3\), vérifions la définition coefficient par coefficient :
- Coefficient \((1,1)\) : \(\delta_{11} = 1\) ✓
- Coefficient \((1,2)\) : \(\delta_{12} = 0\) ✓
- Coefficient \((2,3)\) : \(\delta_{23} = 0\) ✓
- Coefficient \((3,3)\) : \(\delta_{33} = 1\) ✓
On retrouve bien des \(1\) sur la diagonale principale et des \(0\) partout ailleurs.
Observe que \(I_n\) est à la fois une matrice triangulaire supérieure et inférieure, une matrice diagonale, et une matrice symétrique. Ces propriétés structurelles seront exploitées dans la suite.
II. Propriétés fondamentales de \(I_n\)
La propriété essentielle de la matrice identité est son rôle d’élément neutre pour le produit matriciel. C’est cette propriété qui la rend omniprésente en algèbre linéaire.
A. Élément neutre de la multiplication matricielle
Théorème — Neutralité de \(I_n\) ⋆
Pour toute matrice \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) :
\(I_n \, A = A \quad \text{et} \quad A \, I_p = A\)
En particulier, pour toute matrice carrée \(A \in \mathcal{M}_n(\mathbb{K})\) :
\(I_n \, A = A \, I_n = A\)
Démonstration ⋆
Soit \(A = (a_{ij}) \in \mathcal{M}_{n,p}(\mathbb{K})\). On calcule le coefficient en position \((i, j)\) du produit \(I_n A\) :
\((I_n A)_{ij} = \displaystyle\sum_{k=1}^{n} (I_n)_{ik} \, a_{kj} = \displaystyle\sum_{k=1}^{n} \delta_{ik} \, a_{kj} = a_{ij}\)car le seul terme non nul dans la somme correspond à \(k = i\), pour lequel \(\delta_{ii} = 1\). Donc \(I_n A = A\).
De même, pour le produit à droite :
\((A I_p)_{ij} = \displaystyle\sum_{k=1}^{p} a_{ik} \, (I_p)_{kj} = \displaystyle\sum_{k=1}^{p} a_{ik} \, \delta_{kj} = a_{ij}\)car le seul terme non nul correspond à \(k = j\). Donc \(A I_p = A\). ∎
Intuition : multiplier par \(I_n\) revient à « ne rien faire » au produit. C’est l’analogue exact de la multiplication par \(1\) dans \(\mathbb{K}\) : pour tout \(a \in \mathbb{K}\), on a \(1 \times a = a \times 1 = a\).
B. Unicité de l’élément neutre
Un point souvent admis mais rarement démontré : l’élément neutre de la multiplication dans \(\mathcal{M}_n(\mathbb{K})\) est unique.
Proposition — Unicité de l’élément neutre
Si \(J \in \mathcal{M}_n(\mathbb{K})\) vérifie \(J A = A\) pour toute matrice \(A \in \mathcal{M}_n(\mathbb{K})\), alors \(J = I_n\).
Démonstration
Supposons que \(J\) est un élément neutre à gauche : \(\forall A \in \mathcal{M}_n(\mathbb{K}), \, JA = A\).
En appliquant cette hypothèse à \(A = I_n\) :
\(J \, I_n = I_n\)Or, d’après le théorème précédent, \(J \, I_n = J\) (puisque \(I_n\) est un élément neutre à droite). Donc :
\(J = J \, I_n = I_n\)Le raisonnement est identique pour un élément neutre à droite. ∎
Ce résultat garantit qu’il n’existe pas de « deuxième matrice identité ». C’est un résultat structurel fondamental qui se généralise à tout monoïde.
C. Puissances et évaluation de polynômes en \(I_n\)
Propriété — Puissances de \(I_n\)
Pour tout entier \(k \in \mathbb{N}^*\) :
\(I_n^k = I_n\)
Démonstration (par récurrence)
Initialisation : \(I_n^1 = I_n\). ✓
Hérédité : Supposons \(I_n^k = I_n\) pour un certain \(k \geq 1\). Alors :
\(I_n^{k+1} = I_n^k \cdot I_n = I_n \cdot I_n = I_n\)par hypothèse de récurrence et par la propriété d’élément neutre. ∎
Cette propriété, combinée à la linéarité de l’évaluation polynomiale, donne un résultat particulièrement utile en pratique :
Proposition — Évaluation polynomiale
Pour tout polynôme \(P \in \mathbb{K}[X]\) :
\(P(I_n) = P(1) \cdot I_n\)
Démonstration
Soit \(P = a_d X^d + a_{d-1} X^{d-1} + \cdots + a_1 X + a_0 \in \mathbb{K}[X]\). Par définition de l’évaluation d’un polynôme en une matrice :
\(P(I_n) = a_d I_n^d + a_{d-1} I_n^{d-1} + \cdots + a_1 I_n + a_0 I_n\)Comme \(I_n^k = I_n\) pour tout \(k \geq 1\) :
\(P(I_n) = a_d I_n + a_{d-1} I_n + \cdots + a_1 I_n + a_0 I_n = (a_d + a_{d-1} + \cdots + a_1 + a_0) \, I_n = P(1) \, I_n\)∎
Application directe : pour vérifier le théorème de Cayley-Hamilton sur \(I_n\), il suffit de calculer \(\chi_{I_n}(1)\). Le polynôme caractéristique de \(I_n\) est \(\chi_{I_n}(X) = (1 – X)^n\), d’où \(\chi_{I_n}(1) = 0\), et donc \(\chi_{I_n}(I_n) = 0 \cdot I_n = 0_n\). Le théorème est bien vérifié.
La fiche de synthèse sur la matrice identité
Définition, toutes les propriétés et les pièges classiques résumés en une page. Idéal pour les révisions et les colles.
📄 Télécharger la fiche PDFUn résumé clair pour ne plus jamais confondre Iₙ et Jₙ
III. Propriétés spectrales et algébriques
Rassemblons maintenant les propriétés algébriques et spectrales de \(I_n\) dans un tableau synthétique, avant de les démontrer.
| Propriété | Valeur | Remarque |
|---|---|---|
| Déterminant | \(\det(I_n) = 1\) | Produit des coefficients diagonaux |
| Trace | \(\mathrm{tr}(I_n) = n\) | Somme des coefficients diagonaux |
| Transposée | \(I_n^\top = I_n\) | \(I_n\) est symétrique |
| Inverse | \(I_n^{-1} = I_n\) | \(I_n\) est involutive |
| Rang | \(\mathrm{rg}(I_n) = n\) | Rang maximal |
| Valeurs propres | \(\mathrm{Sp}(I_n) = \{1\}\) | Multiplicité algébrique et géométrique \(n\) |
| Polynôme caractéristique | \(\chi_{I_n}(X) = (1 – X)^n\) | Racine unique \(\lambda = 1\) |
| Polynôme minimal | \(\mu_{I_n}(X) = X – 1\) | Degré 1 : le plus simple possible |
A. Déterminant et trace
Propriété — Déterminant de \(I_n\)
\(\det(I_n) = 1\)
Démonstration
\(I_n\) est une matrice triangulaire (à la fois supérieure et inférieure). Son déterminant est le produit de ses coefficients diagonaux :
\(\det(I_n) = \displaystyle\prod_{i=1}^{n} (I_n)_{ii} = \displaystyle\prod_{i=1}^{n} 1 = 1\)∎
Propriété — Trace de \(I_n\)
\(\mathrm{tr}(I_n) = n\)
Démonstration
La trace est la somme des coefficients diagonaux :
\(\mathrm{tr}(I_n) = \displaystyle\sum_{i=1}^{n} (I_n)_{ii} = \displaystyle\sum_{i=1}^{n} 1 = n\)∎
B. Valeurs propres et polynôme caractéristique
Propriété — Spectre de \(I_n\)
L’unique valeur propre de \(I_n\) est \(\lambda = 1\), de multiplicité algébrique et géométrique \(n\). Le polynôme caractéristique est :
\(\chi_{I_n}(X) = (1 – X)^n\)
et le polynôme minimal est :
\(\mu_{I_n}(X) = X – 1\)
Démonstration
Polynôme caractéristique :
\(\chi_{I_n}(X) = \det(I_n – X I_n) = \det\bigl((1 – X) I_n\bigr) = (1 – X)^n \det(I_n) = (1 – X)^n\)L’unique racine est \(\lambda = 1\), de multiplicité algébrique \(n\).
Espace propre :
\(E_1(I_n) = \ker(I_n – 1 \cdot I_n) = \ker(0_n) = \mathbb{K}^n\)La multiplicité géométrique est \(\dim E_1(I_n) = n\), qui coïncide avec la multiplicité algébrique.
Polynôme minimal : on cherche le polynôme unitaire de plus petit degré annulant \(I_n\). Pour \(P(X) = X – 1\) : \(P(I_n) = I_n – I_n = 0_n\). C’est de degré 1, donc c’est bien le polynôme minimal. ∎
Conséquence : \(I_n\) est diagonalisable (son polynôme minimal est scindé à racines simples). Plus précisément, \(I_n\) est déjà diagonale — elle est sa propre forme diagonale dans toute base.
C. Symétrie, transposée et inversibilité
Démonstration
Le coefficient \((i,j)\) de \(I_n^\top\) est \((I_n^\top)_{ij} = (I_n)_{ji} = \delta_{ji} = \delta_{ij} = (I_n)_{ij}\).
L’égalité \(\delta_{ji} = \delta_{ij}\) découle de la symétrie de la relation \(i = j\). ∎
Propriété — Inversibilité de \(I_n\)
\(I_n \in \mathrm{GL}_n(\mathbb{K})\) et \(I_n^{-1} = I_n\)
Démonstration
Par définition, \(A \in \mathcal{M}_n(\mathbb{K})\) est inversible s’il existe \(B \in \mathcal{M}_n(\mathbb{K})\) telle que \(AB = BA = I_n\). En prenant \(A = B = I_n\) :
\(I_n \cdot I_n = I_n\)Donc \(I_n\) est inversible d’inverse \(I_n\) elle-même. ∎
On dit que \(I_n\) est une matrice involutive : \(I_n^2 = I_n\) et \(I_n^{-1} = I_n\). C’est aussi une matrice orthogonale, puisque \(I_n^\top I_n = I_n \cdot I_n = I_n\).
Attention : \(I_n\) est involutive (car \(I_n^2 = I_n\)) mais c’est un cas très particulier. Ne pas confondre avec les matrices idempotentes en général : une matrice \(P\) vérifiant \(P^2 = P\) est un projecteur, pas nécessairement l’identité.
IV. Rôle de la matrice identité en algèbre linéaire
Au-delà de ses propriétés intrinsèques, la matrice identité intervient dans les constructions fondamentales de l’algèbre linéaire.
A. Matrice de l’application identité
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\) et \(\mathcal{B}\) une base de \(E\). L’application linéaire identité \(\mathrm{id}_E : E \to E\) définie par \(\mathrm{id}_E(x) = x\) pour tout \(x \in E\) a pour matrice dans la base \(\mathcal{B}\) :
\(\mathrm{Mat}_{\mathcal{B}}(\mathrm{id}_E) = I_n\)Ce résultat est immédiat : la \(j\)-ème colonne de \(\mathrm{Mat}_{\mathcal{B}}(\mathrm{id}_E)\) est le vecteur des coordonnées de \(\mathrm{id}_E(e_j) = e_j\) dans \(\mathcal{B}\), qui vaut \(e_j\) lui-même — c’est le \(j\)-ème vecteur de la base canonique de \(\mathbb{K}^n\).
Point clé : cette propriété est indépendante de la base \(\mathcal{B}\) choisie. Quelle que soit la base, la matrice de l’identité est \(I_n\). C’est la seule application linéaire dont la matrice est la même dans toute base.
B. Caractérisation de l’inversibilité
La matrice identité apparaît dans la définition même de l’inversibilité :
Définition — Matrice inversible
Une matrice \(A \in \mathcal{M}_n(\mathbb{K})\) est dite inversible s’il existe \(B \in \mathcal{M}_n(\mathbb{K})\) telle que :
\(AB = BA = I_n\)
La matrice \(B\), appelée inverse de \(A\), est alors unique et notée \(A^{-1}\).
C’est parce que \(I_n\) est l’élément neutre que l’inverse est unique (même argument que pour l’unicité de l’inverse dans un groupe). La condition \(AB = I_n\) exprime que \(B\) « annule l’effet de \(A\) » : composer \(A\) puis \(B\) revient à ne rien faire.
Exemple : Soit \(A = \begin{pmatrix} 2 & 1 \\ 1 & 1 \end{pmatrix}\). Vérifions que \(B = \begin{pmatrix} 1 & -1 \\ -1 & 2 \end{pmatrix}\) est l’inverse de \(A\) :
\(AB = \begin{pmatrix} 2 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} 1 & -1 \\ -1 & 2 \end{pmatrix} = \begin{pmatrix} 2 – 1 & -2 + 2 \\ 1 – 1 & -1 + 2 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = I_2\)
On retrouve bien \(I_2\) : la matrice identité sert de « test » pour vérifier qu’un calcul d’inverse est correct.
C. La construction \(A – \lambda I_n\)
L’une des utilisations les plus fréquentes de \(I_n\) en CPGE est la construction \(A – \lambda I_n\), qui intervient dans :
- le polynôme caractéristique : \(\chi_A(\lambda) = \det(A – \lambda I_n)\) ;
- la recherche des valeurs propres : résoudre \(\det(A – \lambda I_n) = 0\) ;
- la détermination des espaces propres : \(E_\lambda(A) = \ker(A – \lambda I_n)\) ;
- la diagonalisation et la trigonalisation.
Piège classique — Écrire « \(A – \lambda\) » au lieu de « \(A – \lambda I_n\) »
L’expression \(A – \lambda\) n’a aucun sens : on ne peut pas soustraire un scalaire d’une matrice. C’est \(A – \lambda I_n\) qui est correcte — on soustrait la matrice \(\lambda I_n\) (un scalaire multiplié par la matrice identité). Cette erreur de notation est lourdement sanctionnée en copie de concours.
Exemple : Pour \(A = \begin{pmatrix} 3 & 1 \\ 0 & 2 \end{pmatrix}\), la matrice \(A – \lambda I_2\) s’écrit :
\(A – \lambda I_2 = \begin{pmatrix} 3 & 1 \\ 0 & 2 \end{pmatrix} – \lambda \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} 3 – \lambda & 1 \\ 0 & 2 – \lambda \end{pmatrix}\)
Le polynôme caractéristique est alors \(\chi_A(\lambda) = (3 – \lambda)(2 – \lambda) = \lambda^2 – 5\lambda + 6\), dont les racines \(\lambda = 2\) et \(\lambda = 3\) sont les valeurs propres de \(A\).
D. Structures algébriques : anneau et groupe
La matrice identité joue un rôle structurel dans les ensembles suivants :
| Structure | Ensemble | Rôle de \(I_n\) |
|---|---|---|
| Anneau unitaire | \((\mathcal{M}_n(\mathbb{K}), +, \times)\) | Élément unité (neutre pour \(\times\)) |
| Groupe linéaire | \((\mathrm{GL}_n(\mathbb{K}), \times)\) | Élément neutre du groupe |
| Groupe orthogonal | \((\mathrm{O}_n(\mathbb{R}), \times)\) | Élément neutre du groupe |
| Groupe spécial linéaire | \((\mathrm{SL}_n(\mathbb{K}), \times)\) | Élément neutre (car \(\det(I_n) = 1\)) |
Le fait que \(\mathcal{M}_n(\mathbb{K})\) possède un élément unité \(I_n\) en fait un anneau unitaire. Attention : cet anneau n’est pas commutatif pour \(n \geq 2\) (le produit matriciel n’est pas commutatif en général).
Le groupe linéaire \(\mathrm{GL}_n(\mathbb{K})\), formé des matrices inversibles, est un groupe dont l’élément neutre est \(I_n\). De même, le groupe orthogonal \(\mathrm{O}_n(\mathbb{R}) = \{M \in \mathcal{M}_n(\mathbb{R}) : M^\top M = I_n\}\) contient \(I_n\) (puisque \(I_n^\top I_n = I_n\)).
Programme CPGE : la structure d’anneau de \(\mathcal{M}_n(\mathbb{K})\) est au programme de MPSI/PCSI. Le groupe linéaire \(\mathrm{GL}_n(\mathbb{K})\) est au programme de MP/PC. Si tu es en première année, retiens que \(I_n\) est l’unité de l’anneau des matrices ; la notion de groupe sera approfondie en seconde année.
V. Exercices corrigés
Voici 6 exercices progressifs sur la matrice identité, classés de ★ (application directe) à ★★★ (type concours). Essaie de résoudre chaque exercice avant de consulter la correction.
Exercice 1 ★ — Vérification directe
Soit \(A = \begin{pmatrix} 2 & -1 & 3 \\ 0 & 4 & 1 \\ -1 & 2 & 5 \end{pmatrix} \in \mathcal{M}_3(\mathbb{R})\). Vérifier que \(I_3 A = A I_3 = A\).
Voir la correction
Calculons \(I_3 A\) :
\(I_3 A = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} 2 & -1 & 3 \\ 0 & 4 & 1 \\ -1 & 2 & 5 \end{pmatrix}\)La première ligne de \(I_3 A\) est \((1 \times 2 + 0 + 0, \; 1 \times (-1) + 0 + 0, \; 1 \times 3 + 0 + 0) = (2, -1, 3)\), qui est bien la première ligne de \(A\). Le même raisonnement s’applique aux deux autres lignes.
De même, pour \(A I_3\), la première colonne est \((2 \times 1 + (-1) \times 0 + 3 \times 0, \; 0 + 4 \times 0 + 1 \times 0, \; -1 + 0 + 0) = (2, 0, -1)^\top\), qui est bien la première colonne de \(A\).
On a bien \(I_3 A = A I_3 = A\), ce qui illustre la propriété d’élément neutre. ∎
Exercice 2 ★ — Polynôme caractéristique
Soit \(A = \begin{pmatrix} 3 & 1 \\ 0 & 2 \end{pmatrix} \in \mathcal{M}_2(\mathbb{R})\). Calculer \(\det(A – \lambda I_2)\) et en déduire les valeurs propres de \(A\).
Voir la correction
On forme \(A – \lambda I_2\) :
\(A – \lambda I_2 = \begin{pmatrix} 3 – \lambda & 1 \\ 0 & 2 – \lambda \end{pmatrix}\)Le déterminant d’une matrice triangulaire est le produit des coefficients diagonaux :
\(\chi_A(\lambda) = \det(A – \lambda I_2) = (3 – \lambda)(2 – \lambda)\)Les valeurs propres sont les racines de \(\chi_A\) : \(\lambda_1 = 2\) et \(\lambda_2 = 3\). ∎
Exercice 3 ★★ — Unicité de l’élément neutre à gauche
Soit \(J \in \mathcal{M}_n(\mathbb{K})\) telle que \(\forall A \in \mathcal{M}_n(\mathbb{K}), \; JA = A\). Démontrer que \(J = I_n\).
Voir la correction
On applique l’hypothèse \(JA = A\) à la matrice particulière \(A = I_n\) :
\(J \, I_n = I_n\)Or, \(I_n\) étant l’élément neutre à droite, on a \(J \, I_n = J\). Par conséquent :
\(J = J \, I_n = I_n\)∎
Remarque : la preuve repose sur le fait qu’il existe déjà un élément neutre à droite (\(I_n\)). On pourrait aussi démontrer le résultat directement en évaluant \(J\) sur les matrices élémentaires \(E_{ij}\), sans supposer l’existence préalable de \(I_n\) — mais c’est rarement demandé aux concours.
Exercice 4 ★★ — Centre de l’algèbre des matrices (I)
Soit \(A \in \mathcal{M}_n(\mathbb{K})\) telle que \(\forall M \in \mathcal{M}_n(\mathbb{K}), \; AM = MA\). Démontrer que \(A\) est une matrice scalaire : il existe \(\lambda \in \mathbb{K}\) tel que \(A = \lambda I_n\).
Voir la correction
Soit \(A = (a_{k\ell})\). Fixons \(i, j \in \{1, \ldots, n\}\) et appliquons l’hypothèse à la matrice élémentaire \(E_{ij}\) (dont le seul coefficient non nul est un \(1\) en position \((i,j)\)).
Calcul de \(AE_{ij}\) : le coefficient \((k, \ell)\) de \(AE_{ij}\) est :
\((AE_{ij})_{k\ell} = \displaystyle\sum_{m=1}^{n} a_{km} \, \delta_{mi} \, \delta_{j\ell} = a_{ki} \, \delta_{j\ell}\)Donc \(AE_{ij}\) est la matrice dont la colonne \(j\) est la \(i\)-ème colonne de \(A\), et toutes les autres colonnes sont nulles.
Calcul de \(E_{ij}A\) : le coefficient \((k, \ell)\) de \(E_{ij}A\) est :
\((E_{ij}A)_{k\ell} = \delta_{ki} \, a_{j\ell}\)Donc \(E_{ij}A\) est la matrice dont la ligne \(i\) est la \(j\)-ème ligne de \(A\), et toutes les autres lignes sont nulles.
Identification : la condition \(AE_{ij} = E_{ij}A\) donne \(a_{ki} \, \delta_{j\ell} = \delta_{ki} \, a_{j\ell}\) pour tout \((k, \ell)\).
- Cas \(k \neq i\) et \(\ell = j\) : \(a_{ki} = 0\). Comme cela vaut pour tout \(i\) et tout \(k \neq i\), on a \(a_{ki} = 0\) dès que \(k \neq i\). La matrice \(A\) est donc diagonale.
- Cas \(k = i\) et \(\ell = j\) : \(a_{ii} = a_{jj}\) pour tout \((i, j)\). Tous les coefficients diagonaux sont donc égaux.
En posant \(\lambda = a_{11}\), on conclut que \(A = \lambda I_n\). ∎
Exercice 5 ★★★ — Matrices involutives
Soit \(A \in \mathcal{M}_n(\mathbb{R})\) telle que \(A^2 = I_n\).
- Déterminer les valeurs propres possibles de \(A\).
- Montrer que \(A\) est diagonalisable.
- En déduire que \(\mathbb{R}^n = \ker(A – I_n) \oplus \ker(A + I_n)\).
Voir la correction
1. Valeurs propres.
Soit \(\lambda\) une valeur propre de \(A\) et \(X \neq 0\) un vecteur propre associé : \(AX = \lambda X\).
Alors \(A^2 X = A(\lambda X) = \lambda (AX) = \lambda^2 X\). Comme \(A^2 = I_n\), on a \(A^2 X = X\). Donc \(\lambda^2 X = X\), d’où \(\lambda^2 = 1\) (car \(X \neq 0\)).
Les seules valeurs propres possibles sont \(\lambda = 1\) et \(\lambda = -1\).
2. Diagonalisabilité.
La relation \(A^2 = I_n\) se réécrit \(A^2 – I_n = 0_n\), soit :
\((A – I_n)(A + I_n) = 0_n\)Le polynôme \(P(X) = X^2 – 1 = (X – 1)(X + 1)\) annule \(A\). Comme \(P\) est scindé à racines simples dans \(\mathbb{R}[X]\), le polynôme minimal \(\mu_A\) divise \(P\) et est donc lui aussi scindé à racines simples. Par le critère de diagonalisabilité, \(A\) est diagonalisable.
3. Décomposition en somme directe.
Puisque \(\mu_A\) divise \((X – 1)(X + 1)\) et que ses racines sont dans \(\{1, -1\}\), le lemme des noyaux (appliqué aux polynômes premiers entre eux \(X – 1\) et \(X + 1\)) donne :
\(\mathbb{R}^n = \ker(A – I_n) \oplus \ker(A + I_n)\)∎
Exercice 6 ★★★ — Inverse à gauche et inverse à droite (type concours)
Soient \(A, B \in \mathcal{M}_n(\mathbb{K})\) telles que \(AB = I_n\). Démontrer que \(BA = I_n\).
Voir la correction
L’objectif est de montrer qu’en dimension finie, un inverse à gauche est aussi un inverse à droite.
Méthode par le déterminant :
On a \(\det(AB) = \det(A) \det(B) = \det(I_n) = 1\).
Donc \(\det(A) \neq 0\) et \(\det(B) \neq 0\). Les matrices \(A\) et \(B\) sont toutes deux inversibles.
Puisque \(A\) est inversible, multiplions \(AB = I_n\) à gauche par \(A^{-1}\) :
\(A^{-1}(AB) = A^{-1} I_n \Rightarrow B = A^{-1}\)Donc \(BA = A^{-1} A = I_n\). ∎
Remarque : ce résultat est faux en dimension infinie. Par exemple, l’opérateur de décalage à droite sur \(\ell^2(\mathbb{N})\) admet un inverse à gauche mais pas d’inverse à droite. C’est la finitude de la dimension (qui garantit que \(\det\) est bien défini et caractérise l’inversibilité) qui rend le résultat vrai.
Tu veux t’entraîner davantage ? Découvre nos exercices corrigés sur les matrices, avec des problèmes de niveau concours (X, Mines-Ponts, Centrale).
VI. Erreurs fréquentes et pièges classiques
Erreur 1 — Écrire « \(A – \lambda\) » au lieu de « \(A – \lambda I_n\) »
❌ Copie fautive : « On calcule \(\det(A – \lambda)\)… »
Diagnostic : on ne peut pas soustraire un scalaire \(\lambda\) d’une matrice \(A\). Ces objets n’appartiennent pas au même ensemble.
✅ Correction : « On calcule \(\det(A – \lambda I_n)\)… »
C’est l’erreur de notation la plus fréquente aux concours sur ce sujet. Le correcteur la repère immédiatement.
Erreur 2 — Confondre \(I_n\) et \(J_n\) (matrice dont tous les coefficients valent 1)
❌ Copie fautive : « La matrice identité \(I_3 = \begin{pmatrix} 1 & 1 & 1 \\ 1 & 1 & 1 \\ 1 & 1 & 1 \end{pmatrix}\) »
Diagnostic : cette matrice est souvent notée \(J_3\) en CPGE. C’est la matrice dont tous les coefficients valent 1, pas seulement les coefficients diagonaux. Elle n’est pas l’élément neutre (on a \(J_3^2 = 3 J_3 \neq J_3\)).
✅ Correction : \(I_3 = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}\) — seuls les coefficients diagonaux valent 1.
Erreur 3 — Oublier de préciser l’ordre \(n\)
❌ Copie fautive : « \(AB = I\) donc \(BA = I\) » (sans avoir précisé de quel \(I\) il s’agit, ni que \(A\) et \(B\) sont carrées de même taille)
Diagnostic : si \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) et \(B \in \mathcal{M}_{p,n}(\mathbb{K})\) avec \(n \neq p\), alors \(AB \in \mathcal{M}_n(\mathbb{K})\) et \(BA \in \mathcal{M}_p(\mathbb{K})\) — le produit \(AB = I_n\) n’implique pas \(BA = I_p\) en général.
✅ Correction : toujours préciser « \(A, B \in \mathcal{M}_n(\mathbb{K})\) » et écrire \(I_n\) avec son indice.
VII. Questions fréquentes
Qu'est-ce que la matrice identité en maths ?
La matrice identité d’ordre \(n\), notée \(I_n\), est la matrice carrée dont tous les coefficients diagonaux valent \(1\) et tous les autres valent \(0\). C’est l’élément neutre de la multiplication matricielle : pour toute matrice \(A\) de taille compatible, \(I_n A = A\) et \(A I_n = A\). Elle joue le même rôle que le nombre \(1\) pour la multiplication des nombres réels.
Pourquoi la matrice identité est-elle notée Iₙ ?
Le « I » vient du mot « identité » (ou de l’anglais « identity »). L’indice \(n\) précise l’ordre de la matrice, c’est-à-dire sa taille \(n \times n\). En contexte, quand l’ordre est clair, on écrit parfois simplement \(I\). Certains auteurs utilisent aussi \(\mathrm{Id}_n\) pour souligner le lien avec l’application linéaire identité.
Quelle est la différence entre matrice identité et matrice diagonale ?
La matrice identité est un cas particulier de matrice diagonale. Une matrice diagonale a des zéros hors de la diagonale, mais ses coefficients diagonaux peuvent être n’importe quels scalaires : \(\mathrm{diag}(d_1, \ldots, d_n)\). La matrice identité est la matrice diagonale dont tous les coefficients diagonaux valent \(1\) : \(I_n = \mathrm{diag}(1, \ldots, 1)\). C’est la seule matrice diagonale qui soit l’élément neutre de la multiplication.
Pourquoi utilise-t-on la matrice identité dans le polynôme caractéristique ?
Le polynôme caractéristique de \(A\) est \(\chi_A(\lambda) = \det(A – \lambda I_n)\). On a besoin de \(I_n\) car on ne peut pas soustraire un scalaire \(\lambda\) d’une matrice \(A\) directement — cette opération n’a pas de sens. L’expression \(\lambda I_n\) est la matrice scalaire correspondant à \(\lambda\), qui appartient à \(\mathcal{M}_n(\mathbb{K})\) et peut donc être soustraite à \(A\).
La matrice identité est-elle inversible ?
Oui. La matrice identité est inversible et elle est son propre inverse : \(I_n^{-1} = I_n\). En effet, \(I_n \cdot I_n = I_n\) vérifie la définition de l’inversibilité. Son déterminant vaut \(1 \neq 0\), ce qui confirme l’inversibilité par le critère du déterminant.
Pourquoi dit-on que Iₙ est l'élément neutre ?
Un élément neutre pour une opération est un élément qui « ne change rien » quand on l’applique. Pour la multiplication matricielle, \(I_n\) vérifie \(I_n A = A I_n = A\) pour toute matrice carrée \(A\) d’ordre \(n\). C’est exactement le rôle du nombre \(1\) pour la multiplication dans \(\mathbb{R}\) : \(1 \times a = a \times 1 = a\). De plus, cet élément neutre est unique — il n’existe aucune autre matrice avec cette propriété.
VIII. Pour aller plus loin
Tu maîtrises maintenant les propriétés fondamentales de la matrice identité. Pour approfondir les concepts liés :
- Matrice inversible : définition, critères et déterminant — la matrice identité est le « test » de l’inversibilité
- Inverse d’une matrice : méthode de calcul et propriétés — comment calculer \(A^{-1}\) tel que \(A A^{-1} = I_n\)
- Déterminant d’une matrice : calcul, propriétés et applications — le déterminant de \(I_n\) vaut \(1\), et ce n’est pas un hasard
- Valeurs propres et vecteurs propres — la construction \(A – \lambda I_n\) est au cœur de la théorie spectrale
- Diagonalisation d’une matrice — \(P^{-1}AP = D\) repose sur l’inversibilité de la matrice de passage
- Matrice orthogonale : définition, propriétés et exemples — les matrices \(M\) telles que \(M^\top M = I_n\)
- Matrice d’une application linéaire — la matrice de \(\mathrm{id}_E\) dans toute base est \(I_n\)
Conforme au programme officiel des classes préparatoires scientifiques (MPSI, PCSI, MP, PC, PSI) 2025-2026.