Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec le niveau d’exigence attendu en classe préparatoire. Découvrir le professeur
Quand on résout un système linéaire homogène \(AX = 0\), l’ensemble des solutions forme un objet fondamental : le noyau de la matrice \(A\). Ce sous-espace vectoriel connecte inversibilité, rang, injectivité et espaces propres en une seule notion. Tu trouveras ici les définitions rigoureuses, les propriétés avec démonstrations exigibles, la méthode de calcul par échelonnement et 8 exercices corrigés de difficulté croissante.
I. Définition du noyau d’une matrice
A. Définition formelle et notation
Définition — Noyau d’une matrice
Soit \(\mathbb{K}\) un corps (\(\mathbb{R}\) ou \(\mathbb{C}\)) et \(A \in \mathcal{M}_{m,n}(\mathbb{K})\). Le noyau de \(A\) est l’ensemble :
\(\ker A = \{ X \in \mathbb{K}^n \mid AX = 0_{\mathbb{K}^m} \}\)
C’est l’ensemble des vecteurs colonnes \(X \in \mathbb{K}^n\) tels que le produit \(AX\) soit le vecteur nul de \(\mathbb{K}^m\).
Autrement dit, \(\ker A\) est l’ensemble des solutions du système linéaire homogène \(AX = 0\). C’est un sous-ensemble de \(\mathbb{K}^n\) — l’espace de départ, associé au nombre de colonnes de \(A\) — et non de \(\mathbb{K}^m\).
Notation : la convention \(\ker A\) (minuscule) est standard en CPGE scientifique. Certains ouvrages utilisent \(\mathrm{Ker}\,A\) (majuscule). La notation anglo-saxonne \(N(A)\) (null space) est parfois rencontrée dans les livres bilingues. En concours, \(\ker A\) est universellement compris.
B. Lien avec le noyau d’une application linéaire
Toute matrice \(A \in \mathcal{M}_{m,n}(\mathbb{K})\) définit une application linéaire :
\(f_A : \mathbb{K}^n \to \mathbb{K}^m, \quad X \mapsto AX\)Le noyau de la matrice coïncide exactement avec le noyau de cette application linéaire :
\(\ker A = \ker f_A = \{ X \in \mathbb{K}^n \mid f_A(X) = 0 \}\)Ce lien est fondamental : toutes les propriétés du noyau d’une application linéaire (structure de sous-espace vectoriel, théorème du rang, caractérisation de l’injectivité) s’appliquent directement à \(\ker A\). En pratique, passer du langage « matrice » au langage « application linéaire » est un réflexe à acquérir dès le premier semestre de CPGE.
C. Premiers exemples
Exemple 1 — Matrice identité.
Soit \(I_n \in \mathcal{M}_n(\mathbb{K})\). Alors \(I_n X = 0 \Leftrightarrow X = 0\), d’où :
\(\ker I_n = \{0_{\mathbb{K}^n}\}\)
Le noyau est réduit au vecteur nul. On dit qu’il est trivial.
Exemple 2 — Matrice nulle.
Soit \(0_{m,n} \in \mathcal{M}_{m,n}(\mathbb{K})\). Pour tout \(X \in \mathbb{K}^n\), on a \(0_{m,n} \cdot X = 0\), donc :
\(\ker 0_{m,n} = \mathbb{K}^n\)
Le noyau est l’espace tout entier.
Exemple 3 — Noyau de dimension 1.
Soit \(A = \begin{pmatrix} 1 & 2 \\ 3 & 6 \end{pmatrix}\). Le système \(AX = 0\) s’écrit :
\(\begin{cases} x + 2y = 0 \\ 3x + 6y = 0 \end{cases}\)
La seconde équation est \(3\) fois la première. On obtient \(x = -2y\), d’où :
\(\ker A = \left\{ y \begin{pmatrix} -2 \\ 1 \end{pmatrix} \;\middle|\; y \in \mathbb{K} \right\} = \mathrm{Vect}\left( \begin{pmatrix} -2 \\ 1 \end{pmatrix} \right)\)
Le noyau est une droite vectorielle : \(\dim \ker A = 1\).
Ces exemples illustrent les trois situations possibles pour une matrice carrée \(n \times n\) : noyau trivial (matrice inversible), noyau de dimension intermédiaire, ou noyau maximal (matrice nulle). Pour exploiter pleinement cette notion, il faut connaître les propriétés structurelles du noyau.
II. Propriétés et théorèmes fondamentaux
A. Le noyau est un sous-espace vectoriel ⋆
Propriété — Structure du noyau
Soit \(A \in \mathcal{M}_{m,n}(\mathbb{K})\). Alors \(\ker A\) est un sous-espace vectoriel de \(\mathbb{K}^n\).
Démonstration ⋆ :
On vérifie les trois conditions caractéristiques d’un sous-espace vectoriel :
- Non vide : \(A \cdot 0_{\mathbb{K}^n} = 0_{\mathbb{K}^m}\), donc \(0_{\mathbb{K}^n} \in \ker A\).
- Stabilité par addition : soient \(X, Y \in \ker A\). Alors \(A(X + Y) = AX + AY = 0 + 0 = 0\), donc \(X + Y \in \ker A\).
- Stabilité par multiplication scalaire : soient \(X \in \ker A\) et \(\lambda \in \mathbb{K}\). Alors \(A(\lambda X) = \lambda (AX) = \lambda \cdot 0 = 0\), donc \(\lambda X \in \ker A\).
∎
Piège concours : ne jamais écrire « le noyau est vide ». Le noyau contient toujours le vecteur nul (étape 1 ci-dessus). On dit que le noyau est « réduit au vecteur nul » ou « trivial », ce qui s’écrit \(\ker A = \{0\}\), et non \(\ker A = \emptyset\).
B. Théorème du rang ⋆
Théorème du rang (formule de la dimension)
Soit \(A \in \mathcal{M}_{m,n}(\mathbb{K})\). Alors :
\(\dim \ker A + \mathrm{rg}\, A = n\)
où \(n\) est le nombre de colonnes de \(A\) (la dimension de l’espace de départ).
Ce théorème est l’un des résultats les plus utilisés en algèbre linéaire. Il établit un lien rigide entre la dimension du noyau et le rang de la matrice.
Démonstration ⋆ :
Soit \(f_A : \mathbb{K}^n \to \mathbb{K}^m\) l’application linéaire associée à \(A\). Posons \(p = \dim \ker f_A\) et soit \((e_1, \ldots, e_p)\) une base de \(\ker f_A\). On la complète en une base \((e_1, \ldots, e_p, e_{p+1}, \ldots, e_n)\) de \(\mathbb{K}^n\).
Montrons que \((f_A(e_{p+1}), \ldots, f_A(e_n))\) est une base de \(\mathrm{Im}\, f_A\).
Famille génératrice : soit \(y \in \mathrm{Im}\, f_A\). Il existe \(x = \sum_{i=1}^{n} \lambda_i e_i \in \mathbb{K}^n\) tel que \(y = f_A(x)\). Comme \(f_A(e_i) = 0\) pour \(i \leq p\), on obtient :
\(y = \sum_{i=p+1}^{n} \lambda_i f_A(e_i)\)Famille libre : supposons \(\sum_{i=p+1}^{n} \lambda_i f_A(e_i) = 0\). Alors \(f_A\!\left(\sum_{i=p+1}^{n} \lambda_i e_i\right) = 0\), donc \(\sum_{i=p+1}^{n} \lambda_i e_i \in \ker f_A = \mathrm{Vect}(e_1, \ldots, e_p)\). Comme \((e_1, \ldots, e_n)\) est une base, cela impose \(\lambda_{p+1} = \cdots = \lambda_n = 0\).
Ainsi \(\dim \mathrm{Im}\, f_A = n – p\), c’est-à-dire \(\mathrm{rg}\, A = n – \dim \ker A\).
∎
Conséquence immédiate : connaissant le rang (par échelonnement de Gauss par exemple), on déduit instantanément la dimension du noyau par :
\(\dim \ker A = n – \mathrm{rg}\, A\)
En particulier, \(\ker A = \{0\} \Leftrightarrow \mathrm{rg}\, A = n\).
C. Noyau et injectivité
Propriété — Caractérisation de l’injectivité par le noyau
Soit \(A \in \mathcal{M}_{m,n}(\mathbb{K})\) et \(f_A : X \mapsto AX\). Alors :
\(f_A \text{ injective} \Leftrightarrow \ker A = \{0\}\)
Démonstration ⋆ :
\((\Rightarrow)\) Si \(f_A\) est injective et \(X \in \ker A\), alors \(f_A(X) = 0 = f_A(0)\), donc \(X = 0\) par injectivité.
\((\Leftarrow)\) Supposons \(\ker A = \{0\}\) et soient \(X, Y \in \mathbb{K}^n\) tels que \(f_A(X) = f_A(Y)\). Alors \(A(X – Y) = 0\), donc \(X – Y \in \ker A = \{0\}\), d’où \(X = Y\).
∎
Ce résultat est le critère universel d’injectivité en algèbre linéaire. En pratique, pour vérifier qu’une application linéaire est injective, on résout \(f(x) = 0\) et on vérifie qu’il n’y a que la solution triviale.
Fiche de synthèse — Noyau d’une matrice
Définition, théorème du rang, méthode de calcul et pièges classiques sur une fiche recto-verso prête à imprimer.
📄 Télécharger la fiche PDFLe résumé parfait pour tes révisions de colles et de concours.
D. Caractérisations de l’inversibilité
Pour une matrice carrée \(A \in \mathcal{M}_n(\mathbb{K})\), le noyau intervient dans la chaîne d’équivalences fondamentale :
| Propriété | Énoncé |
|---|---|
| Noyau trivial | \(\ker A = \{0\}\) |
| Rang maximal | \(\mathrm{rg}\, A = n\) |
| Déterminant non nul | \(\det A \neq 0\) |
| Injectivité | \(f_A\) injective |
| Surjectivité | \(f_A\) surjective |
| Existence d’un inverse | \(\exists B \in \mathcal{M}_n(\mathbb{K}),\; AB = BA = I_n\) |
Toutes ces propriétés sont équivalentes. En dimension finie, pour une matrice carrée, l’injectivité, la surjectivité et la bijectivité sont un seul et même concept. C’est une spécificité de la dimension finie que l’on perd en dimension infinie.
En concours : pour montrer qu’une matrice carrée est inversible, la stratégie la plus efficace dépend du contexte. Si la matrice est explicite, calcule le déterminant. Si tu disposes d’une caractérisation du noyau, montre que \(\ker A = \{0\}\). Si tu connais le rang, vérifie que \(\mathrm{rg}\, A = n\).
Toutes les propriétés théoriques sont maintenant en place. Voyons comment calculer concrètement le noyau d’une matrice.
III. Calcul du noyau : méthode pas à pas
A. Algorithme en 4 étapes
Calculer \(\ker A\) revient à résoudre le système homogène \(AX = 0\). Voici la méthode systématique :
Méthode — Calcul du noyau par échelonnement
- Écrire le système \(AX = 0\) sous forme augmentée \((A \mid 0)\).
- Échelonner \(A\) par pivot de Gauss (opérations élémentaires sur les lignes).
- Identifier les variables : les colonnes contenant un pivot donnent les variables liées (principales) ; les autres sont les variables libres (paramètres).
- Exprimer les solutions en fonction des variables libres et extraire une base de \(\ker A\).
Contrôle rapide : le nombre de variables libres est \(n – \mathrm{rg}\, A\) (théorème du rang). Si tu trouves \(r\) pivots, tu dois obtenir exactement \(n – r\) vecteurs dans ta base du noyau.
B. Exemple résolu — matrice 3×3
Exemple : Déterminer \(\ker A\) pour \(A = \begin{pmatrix} 1 & 0 & -1 \\ 2 & 1 & -1 \\ 1 & 1 & 0 \end{pmatrix}\).
Étape 1 — Système homogène :
\(\begin{cases} x_1 – x_3 = 0 \\ 2x_1 + x_2 – x_3 = 0 \\ x_1 + x_2 = 0 \end{cases}\)
Étape 2 — Échelonnement :
\(L_2 \leftarrow L_2 – 2L_1 : \quad \begin{pmatrix} 1 & 0 & -1 \\ 0 & 1 & 1 \\ 1 & 1 & 0 \end{pmatrix}\)
\(L_3 \leftarrow L_3 – L_1 : \quad \begin{pmatrix} 1 & 0 & -1 \\ 0 & 1 & 1 \\ 0 & 1 & 1 \end{pmatrix}\)
\(L_3 \leftarrow L_3 – L_2 : \quad \begin{pmatrix} 1 & 0 & -1 \\ 0 & 1 & 1 \\ 0 & 0 & 0 \end{pmatrix}\)
Étape 3 — Variables : pivots en colonnes 1 et 2, donc \(x_1, x_2\) sont liées et \(x_3\) est libre. Rang : \(\mathrm{rg}\, A = 2\), d’où \(\dim \ker A = 3 – 2 = 1\).
Étape 4 — Paramétrage : on pose \(x_3 = t \in \mathbb{K}\).
\(\begin{cases} x_1 = x_3 = t \\ x_2 = -x_3 = -t \end{cases}\)
\(X = t \begin{pmatrix} 1 \\ -1 \\ 1 \end{pmatrix}\)
Résultat : \(\ker A = \mathrm{Vect}\left( \begin{pmatrix} 1 \\ -1 \\ 1 \end{pmatrix} \right)\), sous-espace de dimension \(1\) (droite vectorielle).
Vérification : \(A \begin{pmatrix} 1 \\ -1 \\ 1 \end{pmatrix} = \begin{pmatrix} 1 – 1 \\ 2 – 1 – 1 \\ 1 – 1 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}\) ✓
C. Exemple résolu — noyau dépendant d’un paramètre
Exemple : Soit \(A(a) = \begin{pmatrix} 1 & 1 & a \\ 1 & a & 1 \\ a & 1 & 1 \end{pmatrix}\) avec \(a \in \mathbb{R}\). Déterminer \(\ker A(a)\) en fonction de \(a\).
Calcul du déterminant : en développant, on obtient :
\(\det A(a) = -(a-1)^2(a+2)\)
Cas 1 : \(a \notin \{1, -2\}\). Alors \(\det A(a) \neq 0\), donc \(A(a)\) est inversible et \(\ker A(a) = \{0\}\).
Cas 2 : \(a = 1\). On a \(A(1) = \begin{pmatrix} 1 & 1 & 1 \\ 1 & 1 & 1 \\ 1 & 1 & 1 \end{pmatrix}\), matrice de rang \(1\).
Système : \(x_1 + x_2 + x_3 = 0\), variables libres \(x_2, x_3\).
\(\ker A(1) = \mathrm{Vect}\left( \begin{pmatrix} -1 \\ 1 \\ 0 \end{pmatrix}, \begin{pmatrix} -1 \\ 0 \\ 1 \end{pmatrix} \right), \quad \dim \ker A(1) = 2\)
Cas 3 : \(a = -2\). On a \(A(-2) = \begin{pmatrix} 1 & 1 & -2 \\ 1 & -2 & 1 \\ -2 & 1 & 1 \end{pmatrix}\).
Échelonnement : \(L_2 \leftarrow L_2 – L_1\) donne \((0, -3, 3)\) ; \(L_3 \leftarrow L_3 + 2L_1\) donne \((0, 3, -3)\) ; puis \(L_3 \leftarrow L_3 + L_2\) donne \((0, 0, 0)\).
Rang \(2\), système : \(x_1 + x_2 – 2x_3 = 0\) et \(-3x_2 + 3x_3 = 0\), soit \(x_2 = x_3\) et \(x_1 = x_3\).
\(\ker A(-2) = \mathrm{Vect}\left( \begin{pmatrix} 1 \\ 1 \\ 1 \end{pmatrix} \right), \quad \dim \ker A(-2) = 1\)
La méthode de calcul est désormais claire. Pour mieux comprendre ce que le noyau représente, intéressons-nous à son interprétation géométrique et à ses applications.
IV. Interprétation géométrique et applications
A. Interprétation en dimension finie
La dimension du noyau détermine la « géométrie » de l’ensemble des solutions de \(AX = 0\) :
- \(\dim \ker A = 0\) : le noyau est un point (l’origine). L’application linéaire est injective.
- \(\dim \ker A = 1\) : le noyau est une droite vectorielle.
- \(\dim \ker A = 2\) : le noyau est un plan vectoriel.
- \(\dim \ker A = k\) : le noyau est un sous-espace de dimension \(k\).
- \(\dim \ker A = n\) : le noyau est \(\mathbb{K}^n\) tout entier (matrice nulle).
B. Noyau et espaces propres
L’une des applications les plus puissantes du noyau est son lien avec la diagonalisation. Si \(\lambda \in \mathbb{K}\) est un scalaire, alors :
\(E_\lambda(A) = \ker(A – \lambda I_n)\)L’espace propre associé à la valeur propre \(\lambda\) n’est rien d’autre que le noyau de \(A – \lambda I_n\). Dit autrement, les vecteurs propres de \(A\) pour \(\lambda\) sont exactement les éléments non nuls de \(\ker(A – \lambda I_n)\).
Ainsi, \(\lambda\) est valeur propre de \(A\) si et seulement si \(\ker(A – \lambda I_n) \neq \{0\}\), soit \(\det(A – \lambda I_n) = 0\). Calculer des espaces propres, c’est calculer des noyaux.
C. Noyau et structure des solutions d’un système linéaire
Le noyau contrôle la « taille » de l’ensemble des solutions de tout système linéaire, même non homogène :
Propriété — Solutions d’un système \(AX = B\)
Si \(X_0\) est une solution particulière de \(AX = B\), alors l’ensemble complet des solutions est :
\(\mathcal{S} = \{ X_0 + Y \mid Y \in \ker A \} = X_0 + \ker A\)
C’est un sous-espace affine de direction \(\ker A\).
Si \(\ker A = \{0\}\), la solution (quand elle existe) est unique. Si \(\dim \ker A = k \geq 1\), les solutions forment une variété affine de dimension \(k\), paramétrée par \(k\) variables libres.
Avec ces bases théoriques et géométriques, tu es prêt à t’entraîner. Voici 8 exercices corrigés de difficulté croissante.
V. Exercices corrigés
Exercice 1 (★) : Déterminer \(\ker A\) pour \(A = \begin{pmatrix} 1 & 2 \\ 3 & 6 \end{pmatrix} \in \mathcal{M}_2(\mathbb{R})\).
Voir la correction
Le système \(AX = 0\) s’écrit \(\begin{cases} x + 2y = 0 \\ 3x + 6y = 0 \end{cases}\)
\(L_2 \leftarrow L_2 – 3L_1\) donne \((0, 0)\). Une seule équation utile : \(x = -2y\).
Rang \(1\), \(\dim \ker A = 2 – 1 = 1\). En posant \(y = t\) :
\(\ker A = \mathrm{Vect}\left(\begin{pmatrix} -2 \\ 1 \end{pmatrix}\right)\)Exercice 2 (★) : Déterminer \(\ker A\) pour \(A = \begin{pmatrix} 1 & 0 & -1 \\ 2 & 1 & -1 \\ 1 & 1 & 0 \end{pmatrix} \in \mathcal{M}_3(\mathbb{R})\).
Voir la correction
\(L_2 \leftarrow L_2 – 2L_1 : (0, 1, 1)\). \(L_3 \leftarrow L_3 – L_1 : (0, 1, 1)\). \(L_3 \leftarrow L_3 – L_2 : (0, 0, 0)\).
Rang \(2\), \(\dim \ker A = 1\). Système réduit :
\(\begin{cases} x_1 – x_3 = 0 \\ x_2 + x_3 = 0 \end{cases} \Rightarrow x_1 = x_3,\; x_2 = -x_3\) \(\ker A = \mathrm{Vect}\left(\begin{pmatrix} 1 \\ -1 \\ 1 \end{pmatrix}\right)\)Vérification : \(A\begin{pmatrix} 1 \\ -1 \\ 1 \end{pmatrix} = \begin{pmatrix} 1 – 1 \\ 2 – 1 – 1 \\ 1 – 1 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}\) ✓
Exercice 3 (★★) : Déterminer \(\ker A\) pour \(A = \begin{pmatrix} 1 & 2 & -1 & 0 \\ 0 & 1 & 2 & -1 \\ 1 & 3 & 1 & -1 \end{pmatrix} \in \mathcal{M}_{3,4}(\mathbb{R})\).
Voir la correction
\(L_3 \leftarrow L_3 – L_1 : (0, 1, 2, -1)\). \(L_3 \leftarrow L_3 – L_2 : (0, 0, 0, 0)\).
Rang \(2\), \(\dim \ker A = 4 – 2 = 2\). Pivots en colonnes 1 et 2, variables libres : \(x_3 = s\), \(x_4 = t\).
Du système échelonné :
\(\begin{cases} x_2 + 2s – t = 0 \\ x_1 + 2x_2 – s = 0 \end{cases}\)\(x_2 = -2s + t\), puis \(x_1 = s – 2x_2 = s – 2(-2s + t) = 5s – 2t\).
\(X = s\begin{pmatrix} 5 \\ -2 \\ 1 \\ 0 \end{pmatrix} + t\begin{pmatrix} -2 \\ 1 \\ 0 \\ 1 \end{pmatrix}\) \(\ker A = \mathrm{Vect}\left(\begin{pmatrix} 5 \\ -2 \\ 1 \\ 0 \end{pmatrix}, \begin{pmatrix} -2 \\ 1 \\ 0 \\ 1 \end{pmatrix}\right)\)Cette base a bien 2 vecteurs, cohérent avec \(\dim \ker A = 2\).
Exercice 4 (★★) : Soit \(A \in \mathcal{M}_{3,5}(\mathbb{R})\) telle que \(\mathrm{rg}\, A = 3\). Déterminer \(\dim \ker A\) sans calculer le noyau explicitement.
Voir la correction
Par le théorème du rang : \(\dim \ker A = n – \mathrm{rg}\, A = 5 – 3 = 2\).
Le noyau est un sous-espace de \(\mathbb{R}^5\) de dimension \(2\) (un « plan » en dimension 5). Une base du noyau contiendrait exactement 2 vecteurs.
Exercice 5 (★★) : Soit \(A = \begin{pmatrix} 1 & -1 & 0 \\ 0 & 1 & -1 \\ 1 & 0 & -1 \end{pmatrix}\). Montrer que \(X_0 = \begin{pmatrix} 1 \\ 1 \\ 1 \end{pmatrix} \in \ker A\), puis déterminer une base de \(\ker A\).
Voir la correction
Vérification : \(AX_0 = \begin{pmatrix} 1 – 1 + 0 \\ 0 + 1 – 1 \\ 1 + 0 – 1 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix}\) ✓ Donc \(X_0 \in \ker A\).
Calcul de \(\ker A\) : \(L_3 \leftarrow L_3 – L_1 : (0, 1, -1)\). \(L_3 \leftarrow L_3 – L_2 : (0, 0, 0)\).
Rang \(2\), \(\dim \ker A = 1\). Système : \(x_1 = x_2\) et \(x_2 = x_3\), donc \(x_1 = x_2 = x_3\).
\(\ker A = \mathrm{Vect}\left(\begin{pmatrix} 1 \\ 1 \\ 1 \end{pmatrix}\right) = \mathrm{Vect}(X_0)\)Le vecteur \(X_0\) constitue à lui seul une base de \(\ker A\).
Exercice 6 (★★★) : Soit \(A(a) = \begin{pmatrix} 1 & 1 & a \\ 1 & a & 1 \\ a & 1 & 1 \end{pmatrix}\) avec \(a \in \mathbb{R}\). Déterminer \(\ker A(a)\) en fonction de \(a\).
Voir la correction
Étape 1 — Déterminant : en développant selon la première ligne :
\(\det A(a) = (a – 1) – (1 – a) + a(1 – a^2) = 2(a – 1) + a(1-a)(1+a)\) \(= (a-1)\bigl[2 – a(1+a)\bigr] = -(a – 1)^2(a + 2)\)Donc \(\det A(a) = 0 \Leftrightarrow a = 1\) ou \(a = -2\).
Cas \(a \notin \{1, -2\}\) : \(\det A(a) \neq 0\), donc \(A(a)\) est inversible et \(\ker A(a) = \{0\}\).
Cas \(a = 1\) : \(A(1) = \begin{pmatrix} 1 & 1 & 1 \\ 1 & 1 & 1 \\ 1 & 1 & 1 \end{pmatrix}\), rang \(1\). Seule équation : \(x_1 + x_2 + x_3 = 0\).
\(\ker A(1) = \mathrm{Vect}\left(\begin{pmatrix} -1 \\ 1 \\ 0 \end{pmatrix}, \begin{pmatrix} -1 \\ 0 \\ 1 \end{pmatrix}\right), \quad \dim = 2\)Cas \(a = -2\) : \(A(-2) = \begin{pmatrix} 1 & 1 & -2 \\ 1 & -2 & 1 \\ -2 & 1 & 1 \end{pmatrix}\).
\(L_2 \leftarrow L_2 – L_1 : (0, -3, 3)\). \(L_3 \leftarrow L_3 + 2L_1 : (0, 3, -3)\). \(L_3 \leftarrow L_3 + L_2 : (0, 0, 0)\).
Rang \(2\). Système : \(x_2 = x_3\) et \(x_1 = 2x_3 – x_2 = x_3\).
\(\ker A(-2) = \mathrm{Vect}\left(\begin{pmatrix} 1 \\ 1 \\ 1 \end{pmatrix}\right), \quad \dim = 1\)Bilan :
- Si \(a \notin \{1, -2\}\) : \(\ker A(a) = \{0\}\).
- Si \(a = 1\) : \(\dim \ker A(a) = 2\).
- Si \(a = -2\) : \(\dim \ker A(a) = 1\).
Exercice 7 (★★★) : Soit \(A = \begin{pmatrix} 3 & 0 & -1 \\ 2 & 2 & -2 \\ 1 & 0 & 1 \end{pmatrix}\). Calculer \(\ker(A – 2I_3)\). En déduire que \(2\) est valeur propre de \(A\) et préciser sa multiplicité géométrique.
Voir la correction
\(A – 2I_3 = \begin{pmatrix} 1 & 0 & -1 \\ 2 & 0 & -2 \\ 1 & 0 & -1 \end{pmatrix}\)\(L_2 \leftarrow L_2 – 2L_1 : (0, 0, 0)\). \(L_3 \leftarrow L_3 – L_1 : (0, 0, 0)\). Rang \(1\).
Seule équation : \(x_1 = x_3\). Variables libres : \(x_2\) et \(x_3\).
\(\ker(A – 2I_3) = \mathrm{Vect}\left(\begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}, \begin{pmatrix} 1 \\ 0 \\ 1 \end{pmatrix}\right)\)Puisque \(\ker(A – 2I_3) \neq \{0\}\), le scalaire \(2\) est bien une valeur propre de \(A\).
Sa multiplicité géométrique est \(\dim \ker(A – 2I_3) = 2\).
Remarque : le polynôme caractéristique est \(\chi_A(\lambda) = -((\lambda – 2)^3)\) (multiplicité algébrique \(3\)), donc \(A\) n’est pas diagonalisable (multiplicité géométrique \(2\) < multiplicité algébrique \(3\)).
Exercice 8 (★★★) — Type concours : Soit \(A = \begin{pmatrix} 2 & -1 & 1 \\ 1 & 0 & 1 \\ -1 & 1 & 0 \end{pmatrix}\).
- Calculer \(A^2\) et montrer que \(A\) est un projecteur.
- Déterminer \(\ker A\) et \(\mathrm{Im}\, A\).
- Montrer que \(\mathbb{R}^3 = \ker A \oplus \mathrm{Im}\, A\).
Voir la correction
1) Calcul de \(A^2\) :
\(A^2 = A \cdot A = \begin{pmatrix} 2 \cdot 2 + (-1) \cdot 1 + 1 \cdot (-1) & \cdots & \cdots \\ \cdots & \cdots & \cdots \\ \cdots & \cdots & \cdots \end{pmatrix}\)En calculant chaque entrée :
- Ligne 1 : \((4-1-1,\; -2+0+1,\; 2-1+0) = (2, -1, 1)\)
- Ligne 2 : \((2+0-1,\; -1+0+1,\; 1+0+0) = (1, 0, 1)\)
- Ligne 3 : \((-2+1+0,\; 1+0+0,\; -1+1+0) = (-1, 1, 0)\)
On obtient \(A^2 = A\) : \(A\) est bien un projecteur (matrice idempotente).
2) Calcul de \(\ker A\) :
On permute \(L_1\) et \(L_2\) pour avoir un pivot \(1\) :
\(\begin{pmatrix} 1 & 0 & 1 \\ 2 & -1 & 1 \\ -1 & 1 & 0 \end{pmatrix}\)\(L_2 \leftarrow L_2 – 2L_1 : (0, -1, -1)\). \(L_3 \leftarrow L_3 + L_1 : (0, 1, 1)\). \(L_3 \leftarrow L_3 + L_2 : (0, 0, 0)\).
Système : \(x_1 + x_3 = 0\) et \(-x_2 – x_3 = 0\), d’où \(x_1 = -x_3\) et \(x_2 = -x_3\).
\(\ker A = \mathrm{Vect}\left(\begin{pmatrix} -1 \\ -1 \\ 1 \end{pmatrix}\right), \quad \dim \ker A = 1\)Image : \(\mathrm{rg}\, A = 2\), donc \(\dim \mathrm{Im}\, A = 2\). Les colonnes 1 et 2 de \(A\) sont indépendantes :
\(\mathrm{Im}\, A = \mathrm{Vect}\left(\begin{pmatrix} 2 \\ 1 \\ -1 \end{pmatrix}, \begin{pmatrix} -1 \\ 0 \\ 1 \end{pmatrix}\right)\)3) Somme directe :
\(\dim \ker A + \dim \mathrm{Im}\, A = 1 + 2 = 3 = \dim \mathbb{R}^3\). Il suffit de montrer \(\ker A \cap \mathrm{Im}\, A = \{0\}\).
Soit \(X \in \ker A \cap \mathrm{Im}\, A\). Comme \(X \in \mathrm{Im}\, A\), il existe \(Y\) tel que \(X = AY\). Comme \(X \in \ker A\), on a \(AX = 0\). Or \(AX = A(AY) = A^2 Y = AY = X\) (car \(A^2 = A\)). Donc \(X = 0\).
Conclusion : \(\mathbb{R}^3 = \ker A \oplus \mathrm{Im}\, A\). C’est un résultat général : pour tout projecteur, l’espace se décompose en somme directe du noyau et de l’image.
Tu veux t’entraîner davantage ? Découvre nos exercices corrigés sur les matrices et nos exercices sur les espaces vectoriels.
VI. Erreurs fréquentes et pièges classiques
Erreur 1 — Confondre l’espace ambiant du noyau.
Pour \(A \in \mathcal{M}_{m,n}(\mathbb{K})\), le noyau vit dans \(\mathbb{K}^n\) (espace de départ, dimension = nombre de colonnes), et non dans \(\mathbb{K}^m\) (espace d’arrivée). L’image, elle, vit dans \(\mathbb{K}^m\).
❌ « \(\ker A \subset \mathbb{K}^m\) » → ✅ « \(\ker A \subset \mathbb{K}^n\) »
Erreur 2 — Écrire \(\ker A = \emptyset\).
Le noyau contient toujours le vecteur nul (\(A \cdot 0 = 0\)). Il n’est jamais vide. Le plus petit noyau possible est \(\{0\}\), pas \(\emptyset\).
❌ « \(\ker A = \emptyset\) » → ✅ « \(\ker A = \{0\}\) »
Erreur 3 — Appliquer le théorème du rang avec \(m\) au lieu de \(n\).
La formule est \(\dim \ker A + \mathrm{rg}\, A = n\) (nombre de colonnes). Pour \(A \in \mathcal{M}_{3,5}(\mathbb{R})\) de rang \(2\), on écrit \(\dim \ker A = 5 – 2 = 3\), et non \(3 – 2 = 1\).
❌ « \(\dim \ker A = m – \mathrm{rg}\, A\) » → ✅ « \(\dim \ker A = n – \mathrm{rg}\, A\) »
Erreur 4 — Donner un vecteur du noyau au lieu d’une base.
Quand l’énoncé demande de « déterminer \(\ker A\) », il faut donner une base du noyau (ou une description complète en tant que sous-espace). Écrire « \(\begin{pmatrix} 1 \\ -1 \\ 1 \end{pmatrix} \in \ker A\) » ne suffit pas : il faut préciser que c’est une base, et que \(\ker A = \mathrm{Vect}(\ldots)\).
Erreur 5 — Oublier la discussion par cas pour un noyau paramétrique.
Quand la matrice dépend d’un paramètre, le noyau change de dimension selon les valeurs du paramètre. Il faut toujours commencer par le déterminant pour identifier les valeurs critiques, puis traiter chaque cas séparément. Donner le noyau « en général » sans vérifier les cas singuliers est une faute de raisonnement.
VII. Questions fréquentes
Comment déterminer le noyau d'une matrice ?
Écris le système homogène \(AX = 0\), échelonne la matrice \(A\) par pivot de Gauss, identifie les variables libres (colonnes sans pivot) et exprime les solutions sous forme paramétrique. Le nombre de vecteurs dans la base du noyau est \(n – \mathrm{rg}\, A\) (théorème du rang). Vérifie toujours le résultat en multipliant \(A\) par chaque vecteur de ta base.
Que signifie le noyau d'une matrice ?
Le noyau de \(A\), noté \(\ker A\), est l’ensemble de tous les vecteurs \(X\) tels que \(AX = 0\). Géométriquement, c’est le sous-espace vectoriel « écrasé » sur zéro par la multiplication par \(A\). Si le noyau est réduit à \(\{0\}\), la matrice n’écrase rien : elle est injective (et inversible si elle est carrée).
Quelle est la différence entre noyau et image d'une matrice ?
Pour \(A \in \mathcal{M}_{m,n}(\mathbb{K})\), le noyau \(\ker A \subset \mathbb{K}^n\) est l’ensemble des vecteurs envoyés sur \(0\), tandis que l’image \(\mathrm{Im}\, A \subset \mathbb{K}^m\) est l’ensemble des vecteurs atteints par \(A\). Le noyau mesure ce que \(A\) « perd » (l’information détruite), l’image mesure ce que \(A\) « produit ». Le théorème du rang lie leurs dimensions : \(\dim \ker A + \dim \mathrm{Im}\, A = n\).
Le noyau d'une matrice peut-il être vide ?
Non, jamais. Le noyau contient toujours au moins le vecteur nul \(0\) (car \(A \cdot 0 = 0\)). On dit que le noyau est « trivial » ou « réduit au vecteur nul » quand \(\ker A = \{0\}\). Il n’est jamais vide au sens ensembliste (\(\ker A \neq \emptyset\)).
Comment utiliser le théorème du rang pour trouver la dimension du noyau ?
Le théorème du rang donne \(\dim \ker A = n – \mathrm{rg}\, A\), où \(n\) est le nombre de colonnes. Calcule d’abord le rang de \(A\) (par échelonnement : c’est le nombre de pivots non nuls), puis soustrais-le de \(n\). Cette méthode est souvent plus rapide que de résoudre entièrement le système \(AX = 0\) quand on ne demande que la dimension.
Quel est le lien entre noyau d'une matrice et valeurs propres ?
L’espace propre associé à une valeur propre \(\lambda\) est exactement \(\ker(A – \lambda I_n)\). Chercher les vecteurs propres de \(A\) pour \(\lambda\) revient donc à calculer le noyau de \(A – \lambda I_n\). Le scalaire \(\lambda\) est valeur propre si et seulement si ce noyau est non trivial, c’est-à-dire \(\det(A – \lambda I_n) = 0\).
VIII. Pour aller plus loin
Tu maîtrises maintenant la définition, les propriétés et le calcul du noyau d’une matrice. Pour approfondir les notions connexes :
- Rang d’une matrice : définition, calcul et propriétés — le théorème du rang repose sur cette notion.
- Matrice d’une application linéaire — le pont entre le langage matriciel et le langage des applications linéaires.
- Matrice inversible : définition, critères et déterminant — toutes les caractérisations de l’inversibilité.
- Diagonalisation d’une matrice : méthode complète — où le calcul de noyaux (espaces propres) est la clé.
- Espaces vectoriels : cours complet — la structure abstraite dont le noyau est un exemple fondamental.
- Sous-espaces vectoriels : définition et exemples — le noyau est l’un des exemples les plus naturels de sous-espace vectoriel.
Application en sciences des données : le noyau d’une matrice (ou null space) joue un rôle central en apprentissage automatique. En analyse en composantes principales (ACP), les directions du noyau sont celles qui ne portent aucune variance — elles identifient les redondances dans les données. En traitement du signal, la décomposition en valeurs singulières (SVD) exploite la structure \(\ker A / \mathrm{Im}\, A\) pour compresser l’information.