Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec le niveau d’exigence attendu en classe préparatoire. Découvrir le professeur
Le rang d’une matrice mesure la « dimension de l’information utile » qu’elle contient : c’est la dimension du sous-espace vectoriel engendré par ses colonnes. Omniprésent en algèbre linéaire — systèmes, inversibilité, diagonalisation — le rang intervient dans la quasi-totalité des sujets de concours. Ce cours couvre définition formelle, propriétés essentielles (dont le théorème du rang ⋆), trois méthodes de calcul avec arbre décisionnel, et huit exercices corrigés de difficulté croissante.
I. Définition du rang d’une matrice
A. Rang par les colonnes
L’idée fondamentale est simple : le rang compte le nombre de colonnes « véritablement indépendantes » dans la matrice. Formellement :
Définition — Rang d’une matrice
Soit \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) une matrice dont les colonnes sont \(C_1, \ldots, C_p \in \mathbb{K}^n\). Le rang de \(A\), noté \(\mathrm{rg}(A)\), est la dimension du sous-espace vectoriel de \(\mathbb{K}^n\) engendré par les colonnes de \(A\) :
\(\mathrm{rg}(A) = \dim\bigl(\mathrm{Vect}(C_1, \ldots, C_p)\bigr)\)
Autrement dit, \(\mathrm{rg}(A)\) est le nombre maximal de colonnes de \(A\) formant une famille libre.
Le rang est donc un entier naturel compris entre \(0\) et \(\min(n, p)\). Intuitivement, plus le rang est élevé, plus la matrice « porte d’information ».
Exemple introductif
Soit \(A = \begin{pmatrix} 1 & 2 & 3 \\ 2 & 4 & 6 \end{pmatrix} \in \mathcal{M}_{2,3}(\mathbb{R})\).
Les colonnes \(C_2 = 2C_1\) et \(C_3 = 3C_1\) sont proportionnelles à \(C_1\). Donc \(\mathrm{Vect}(C_1, C_2, C_3) = \mathrm{Vect}(C_1)\), qui est de dimension \(1\). D’où \(\mathrm{rg}(A) = 1\).
B. Rang des lignes et rang des colonnes
On pourrait tout aussi bien définir le rang en regardant les lignes de \(A\). Le résultat fondamental suivant affirme que les deux approches coïncident :
Théorème — Égalité du rang des lignes et du rang des colonnes
Pour toute matrice \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) :
\(\mathrm{rg}(A) = \mathrm{rg}({}^t\!A)\)
Autrement dit, la dimension de l’espace engendré par les colonnes de \(A\) est égale à la dimension de l’espace engendré par les lignes de \(A\).
Démonstration (idée de preuve)
La preuve repose sur l’échelonnement de Gauss. Les opérations élémentaires sur les lignes reviennent à multiplier \(A\) à gauche par des matrices inversibles. Or, pour \(P\) inversible, \(\mathrm{rg}(PA) = \mathrm{rg}(A)\) (les colonnes de \(PA\) engendrent le même sous-espace que celles de \(A\) après changement de base dans l’espace d’arrivée).
En forme échelonnée \(E = PA\), le nombre de pivots est à la fois :
- le nombre de lignes non nulles (= rang des lignes de \(E\), et donc de \(A\) car les opérations élémentaires préservent l’espace des lignes),
- le nombre maximal de colonnes linéairement indépendantes (= rang des colonnes de \(E\), et donc de \(A\) par invariance). ∎
Ce résultat est commode : on peut calculer le rang en travaillant indifféremment sur les lignes ou les colonnes, selon ce qui simplifie les calculs.
C. Rang et application linéaire
Le rang a une interprétation naturelle en termes d’applications linéaires. À toute matrice \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) on associe l’application linéaire \(f_A : \mathbb{K}^p \to \mathbb{K}^n\) définie par \(f_A(X) = AX\).
Propriété — Rang et image
\(\mathrm{rg}(A) = \mathrm{rg}(f_A) = \dim(\mathrm{Im}\, f_A)\)
En effet, l’image de \(f_A\) est exactement \(\mathrm{Vect}(C_1, \ldots, C_p)\), puisque \(f_A(e_j) = C_j\) pour tout vecteur de la base canonique \(e_j\).
Cette interprétation est fondamentale : elle relie le rang d’une matrice au noyau de l’application linéaire associée, via le théorème du rang (section II.B).
D. Exemples fondamentaux
Avant d’aller plus loin, ancrons la définition sur des cas classiques :
| Matrice | Rang | Justification |
|---|---|---|
| \(I_n\) (identité) | \(n\) | Les colonnes forment la base canonique de \(\mathbb{K}^n\) |
| \(0_{n,p}\) (matrice nulle) | \(0\) | \(\mathrm{Vect}(\,) = \{0\}\) |
| \(\mathrm{diag}(\lambda_1, \ldots, \lambda_n)\) | nombre de \(\lambda_i \neq 0\) | Chaque \(\lambda_i \neq 0\) donne une colonne libre |
| Matrice triangulaire avec \(r\) coefficients diagonaux non nuls | \(r\) | Lecture directe sur la forme échelonnée |
| \(A = X \cdot {}^t\!Y\) avec \(X \in \mathcal{M}_{n,1}\), \(Y \in \mathcal{M}_{p,1}\) non nuls | \(1\) | Toutes les colonnes sont proportionnelles à \(X\) |
Caractérisation des matrices de rang 1
Une matrice non nulle \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) est de rang \(1\) si et seulement si elle s’écrit comme un produit \(A = X \cdot {}^t\!Y\) avec \(X \in \mathcal{M}_{n,1}(\mathbb{K})\) et \(Y \in \mathcal{M}_{p,1}(\mathbb{K})\) non nuls. Ce résultat est un classique de colle et de concours (cf. exercice 5).
Ces fondations étant posées, examinons les propriétés du rang — à commencer par le théorème du rang, l’un des résultats les plus puissants du programme.
II. Propriétés et théorèmes
A. Propriétés élémentaires
Le tableau suivant rassemble les propriétés du rang que tu dois connaître sans hésitation. La plupart se déduisent directement de la définition comme dimension de l’espace des colonnes.
| Propriété | Énoncé | Conditions |
|---|---|---|
| Bornes | \(0 \leq \mathrm{rg}(A) \leq \min(n, p)\) | \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) |
| Nullité | \(\mathrm{rg}(A) = 0 \iff A = 0\) | |
| Inversibilité | \(\mathrm{rg}(A) = n \iff A \text{ inversible}\) | \(A \in \mathcal{M}_n(\mathbb{K})\) (carrée) |
| Scalaire | \(\mathrm{rg}(\lambda A) = \mathrm{rg}(A)\) | \(\lambda \neq 0\) |
| Transposée | \(\mathrm{rg}({}^t\!A) = \mathrm{rg}(A)\) | |
| Invariance | \(\mathrm{rg}(PAQ) = \mathrm{rg}(A)\) | \(P, Q\) inversibles |
La propriété d’inversibilité est fondamentale : pour une matrice carrée \(A \in \mathcal{M}_n(\mathbb{K})\), on a l’équivalence :
\(A \text{ inversible} \iff \mathrm{rg}(A) = n \iff \det(A) \neq 0\)Le rang fournit donc un critère d’inversibilité alternatif au déterminant, souvent plus pratique pour les matrices de grande taille.
B. Le théorème du rang ⋆
C’est le résultat central de cette page, et l’un des théorèmes les plus utilisés en algèbre linéaire. Sa démonstration est exigible aux concours.
Théorème du rang ⋆ (exigible)
Soit \(f \in \mathcal{L}(E, F)\) une application linéaire avec \(\dim E = n\). Alors :
\(\dim(\ker f) + \mathrm{rg}(f) = \dim E\)
En termes matriciels, si \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) est la matrice de \(f\) :
\(\dim(\ker A) + \mathrm{rg}(A) = p\)
où \(p\) est le nombre de colonnes (= dimension de l’espace de départ).
Piège classique : c’est la dimension de l’espace de départ \(E\) qui intervient, pas celle de l’espace d’arrivée \(F\). Pour une matrice \(A \in \mathcal{M}_{n,p}(\mathbb{K})\), c’est le nombre de colonnes \(p\), pas le nombre de lignes \(n\).
Démonstration ⋆. Posons \(r = \dim(\ker f)\). Soit \((e_1, \ldots, e_r)\) une base de \(\ker f\). Par le théorème de la base incomplète, on la complète en une base \((e_1, \ldots, e_r, e_{r+1}, \ldots, e_n)\) de \(E\).
Affirmons que \((f(e_{r+1}), \ldots, f(e_n))\) est une base de \(\mathrm{Im}\, f\).
Famille génératrice. Soit \(y \in \mathrm{Im}\, f\). Il existe \(x = \displaystyle\sum_{i=1}^{n} \lambda_i e_i \in E\) tel que \(y = f(x)\). Par linéarité :
\(y = \displaystyle\sum_{i=1}^{r} \lambda_i \underbrace{f(e_i)}_{= 0} + \sum_{i=r+1}^{n} \lambda_i f(e_i) = \sum_{i=r+1}^{n} \lambda_i f(e_i)\)Donc \(y \in \mathrm{Vect}(f(e_{r+1}), \ldots, f(e_n))\).
Famille libre. Supposons \(\displaystyle\sum_{i=r+1}^{n} \mu_i f(e_i) = 0\). Par linéarité, \(f\!\left(\displaystyle\sum_{i=r+1}^{n} \mu_i e_i\right) = 0\), donc \(\displaystyle\sum_{i=r+1}^{n} \mu_i e_i \in \ker f\).
Il existe donc \(\alpha_1, \ldots, \alpha_r\) tels que \(\displaystyle\sum_{i=r+1}^{n} \mu_i e_i = \sum_{j=1}^{r} \alpha_j e_j\), soit :
\(-\alpha_1 e_1 – \cdots – \alpha_r e_r + \mu_{r+1} e_{r+1} + \cdots + \mu_n e_n = 0\)Puisque \((e_1, \ldots, e_n)\) est une base de \(E\), tous les coefficients sont nuls. En particulier \(\mu_{r+1} = \cdots = \mu_n = 0\).
Conclusion. La famille \((f(e_{r+1}), \ldots, f(e_n))\) est une base de \(\mathrm{Im}\, f\), de cardinal \(n – r\). Donc :
\(\mathrm{rg}(f) = n – r = \dim E – \dim(\ker f) \) ∎
Application immédiate
Soit \(f : \mathbb{R}^4 \to \mathbb{R}^3\) une application linéaire telle que \(\dim(\ker f) = 2\). Par le théorème du rang :
\(\mathrm{rg}(f) = \dim(\mathbb{R}^4) – \dim(\ker f) = 4 – 2 = 2\)
L’application \(f\) n’est ni injective (\(\ker f \neq \{0\}\)) ni surjective (\(\mathrm{rg}(f) = 2 \neq 3 = \dim \mathbb{R}^3\)).
Fiche de synthèse — Rang d’une matrice
Définitions, théorème du rang, arbre décisionnel des méthodes et formules clés sur une seule page imprimable.
📄 Télécharger la fiche PDFIdéal pour réviser avant une colle ou un DS d’algèbre linéaire.
C. Rang et opérations sur les matrices
Comment le rang se comporte-t-il vis-à-vis du produit et de la somme ? Les inégalités suivantes sont indispensables.
Propriété — Rang d’un produit
Pour \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) et \(B \in \mathcal{M}_{p,q}(\mathbb{K})\) :
\(\mathrm{rg}(AB) \leq \min\bigl(\mathrm{rg}(A),\; \mathrm{rg}(B)\bigr)\)
Preuve. L’image de \(AB\) comme application linéaire est \(\mathrm{Im}(f_A \circ f_B)\). Or \(\mathrm{Im}(f_A \circ f_B) \subset \mathrm{Im}(f_A)\), d’où \(\mathrm{rg}(AB) \leq \mathrm{rg}(A)\). De plus, \(\mathrm{Im}(f_A \circ f_B) = f_A(\mathrm{Im}\, f_B)\) est un sous-espace de dimension au plus \(\dim(\mathrm{Im}\, f_B) = \mathrm{rg}(B)\), d’où \(\mathrm{rg}(AB) \leq \mathrm{rg}(B)\). ∎
Propriété — Sous-additivité du rang
Pour \(A, B \in \mathcal{M}_{n,p}(\mathbb{K})\) :
\(\mathrm{rg}(A + B) \leq \mathrm{rg}(A) + \mathrm{rg}(B)\)
Preuve. \(\mathrm{Im}(A + B) \subset \mathrm{Im}(A) + \mathrm{Im}(B)\), donc \(\mathrm{rg}(A + B) \leq \dim(\mathrm{Im}(A) + \mathrm{Im}(B)) \leq \dim(\mathrm{Im}(A)) + \dim(\mathrm{Im}(B))\). ∎
Conséquence utile en concours : on peut aussi minorer le rang d’une somme. En écrivant \(A = (A + B) + (-B)\), la sous-additivité donne \(\mathrm{rg}(A) \leq \mathrm{rg}(A + B) + \mathrm{rg}(B)\), soit :
\(\mathrm{rg}(A + B) \geq |\mathrm{rg}(A) – \mathrm{rg}(B)|\)
D. L’inégalité de Sylvester
Cette inégalité, moins connue mais redoutablement efficace en concours, minore le rang d’un produit :
Théorème — Inégalité de Sylvester (ou de Frobenius)
Pour \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) et \(B \in \mathcal{M}_{p,q}(\mathbb{K})\) :
\(\mathrm{rg}(AB) \geq \mathrm{rg}(A) + \mathrm{rg}(B) – p\)
Démonstration
Considérons la restriction de l’application linéaire \(f_A : \mathbb{K}^p \to \mathbb{K}^n\) au sous-espace \(\mathrm{Im}(f_B) \subset \mathbb{K}^p\). L’image de cette restriction est exactement \(f_A(\mathrm{Im}\, f_B) = \mathrm{Im}(f_A \circ f_B) = \mathrm{Im}(AB)\).
Son noyau est \(\mathrm{Im}(f_B) \cap \ker f_A\). Par le théorème du rang appliqué à cette restriction :
\(\dim(\mathrm{Im}\, f_B) = \dim(\mathrm{Im}(f_B) \cap \ker f_A) + \mathrm{rg}(AB)\)Soit \(\mathrm{rg}(AB) = \mathrm{rg}(B) – \dim(\mathrm{Im}(f_B) \cap \ker f_A)\). Or \(\mathrm{Im}(f_B) \cap \ker f_A \subset \ker f_A\), donc :
\(\mathrm{rg}(AB) \geq \mathrm{rg}(B) – \dim(\ker f_A) = \mathrm{rg}(B) – (p – \mathrm{rg}(A)) = \mathrm{rg}(A) + \mathrm{rg}(B) – p \) ∎
Application de Sylvester
Soient \(A, B \in \mathcal{M}_3(\mathbb{R})\) avec \(\mathrm{rg}(A) = 2\) et \(\mathrm{rg}(B) = 2\). Alors :
\(1 = 2 + 2 – 3 \leq \mathrm{rg}(AB) \leq \min(2, 2) = 2\)
Le rang de \(AB\) vaut donc \(1\) ou \(2\). Pour trancher, il faut un calcul explicite.
Ces propriétés étant posées, la question naturelle est : comment calculer concrètement le rang d’une matrice ?
III. Trois méthodes pour calculer le rang
A. Méthode 1 — Échelonnement de Gauss
C’est la méthode universelle, celle à utiliser par défaut. Le principe : transformer la matrice en forme échelonnée par opérations élémentaires sur les lignes, puis compter les pivots.
Méthode — Calcul du rang par Gauss
- Écrire la matrice \(A\).
- Effectuer des opérations élémentaires sur les lignes (\(L_i \leftarrow L_i + \lambda L_j\), \(L_i \leftrightarrow L_j\), \(L_i \leftarrow \mu L_i\) avec \(\mu \neq 0\)) pour obtenir une forme échelonnée.
- Compter le nombre de pivots (= lignes non nulles de la forme échelonnée).
- Ce nombre est \(\mathrm{rg}(A)\).
Exemple — Calcul du rang par Gauss
Soit \(M = \begin{pmatrix} 1 & 3 & 2 \\ 2 & 7 & 5 \\ 1 & 4 & 3 \end{pmatrix}\). On effectue \(L_2 \leftarrow L_2 – 2L_1\) et \(L_3 \leftarrow L_3 – L_1\) :
\(M \sim \begin{pmatrix} 1 & 3 & 2 \\ 0 & 1 & 1 \\ 0 & 1 & 1 \end{pmatrix}\)
Puis \(L_3 \leftarrow L_3 – L_2\) :
\(M \sim \begin{pmatrix} 1 & 3 & 2 \\ 0 & 1 & 1 \\ 0 & 0 & 0 \end{pmatrix}\)
Deux pivots, donc \(\mathrm{rg}(M) = 2\).
B. Méthode 2 — Mineurs non nuls
Un mineur d’ordre \(k\) de \(A\) est le déterminant d’une sous-matrice carrée \(k \times k\) extraite de \(A\). Le rang est lié aux mineurs par le résultat suivant :
Théorème — Caractérisation du rang par les mineurs
\(\mathrm{rg}(A) = r\) si et seulement si :
- il existe un mineur d’ordre \(r\) non nul,
- tous les mineurs d’ordre \(r + 1\) sont nuls.
Autrement dit, \(\mathrm{rg}(A)\) est l’ordre maximal d’un mineur non nul de \(A\).
Exemple — Rang par les mineurs
Reprenons \(M = \begin{pmatrix} 1 & 3 & 2 \\ 2 & 7 & 5 \\ 1 & 4 & 3 \end{pmatrix}\). Le seul mineur d’ordre \(3\) est \(\det(M)\) :
\(\det(M) = 1(21 – 20) – 3(6 – 5) + 2(8 – 7) = 1 – 3 + 2 = 0\)
Donc \(\mathrm{rg}(M) \leq 2\). Cherchons un mineur d’ordre \(2\) non nul :
\(\det\begin{pmatrix} 1 & 3 \\ 2 & 7 \end{pmatrix} = 7 – 6 = 1 \neq 0\)
Donc \(\mathrm{rg}(M) = 2\), résultat cohérent avec la méthode de Gauss.
Cette méthode est particulièrement adaptée aux matrices dépendant d’un paramètre de petite taille : on annule le déterminant pour trouver les valeurs du paramètre où le rang chute.
C. Méthode 3 — Le théorème du rang
Si tu connais le noyau de l’application linéaire associée, le théorème du rang donne directement le rang sans calcul matriciel :
\(\mathrm{rg}(f) = \dim E – \dim(\ker f)\)Exemple — Rang via le noyau
Soit \(p : \mathbb{R}^3 \to \mathbb{R}^3\) la projection sur le plan \(z = 0\), définie par \(p(x, y, z) = (x, y, 0)\).
On a \(\ker p = \{(0, 0, z) \mid z \in \mathbb{R}\} = \mathrm{Vect}(e_3)\), donc \(\dim(\ker p) = 1\).
Par le théorème du rang : \(\mathrm{rg}(p) = 3 – 1 = 2\).
D. Arbre décisionnel : quelle méthode choisir ?
Face à un exercice demandant de calculer un rang, voici l’arbre de décision à suivre :
Arbre décisionnel — Quelle méthode pour le rang ?
- Matrice numérique concrète (sans paramètre) → Gauss (méthode la plus rapide, universelle)
- Matrice dépendant d’un paramètre, petite taille (2×2, 3×3) → Mineurs : calculer le déterminant, discuter selon le paramètre, puis chercher un mineur d’ordre inférieur si le déterminant est nul
- Matrice dépendant d’un paramètre, grande taille → Gauss avec discussion sur le paramètre aux étapes de pivot
- Application linéaire dont on connaît le noyau → Théorème du rang
- Matrice structurée (diagonale, triangulaire, échelonnée) → Lecture directe du nombre de coefficients diagonaux/pivots non nuls
Le rang est aussi un outil fondamental pour l’étude des systèmes d’équations linéaires. Voyons comment.
IV. Rang et systèmes linéaires
A. Compatibilité d’un système
Considérons un système linéaire \(AX = B\) avec \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) et \(B \in \mathcal{M}_{n,1}(\mathbb{K})\). On note \((A \mid B)\) la matrice augmentée obtenue en ajoutant la colonne \(B\) à \(A\).
Théorème de Rouché-Fontené (ou Kronecker-Capelli)
Le système \(AX = B\) admet au moins une solution si et seulement si :
\(\mathrm{rg}(A) = \mathrm{rg}(A \mid B)\)
Autrement dit, le système est compatible si et seulement si l’ajout de \(B\) ne fait pas augmenter le rang.
Intuitivement : le système a une solution si et seulement si \(B\) est déjà dans l’espace engendré par les colonnes de \(A\) (c’est-à-dire \(B \in \mathrm{Im}(f_A)\)).
B. Dimension de l’espace des solutions
Lorsque le système est compatible, le théorème du rang donne immédiatement la « taille » de l’ensemble des solutions :
Propriété — Dimension de l’espace des solutions
Si \(AX = B\) est compatible et \(A \in \mathcal{M}_{n,p}(\mathbb{K})\), l’ensemble des solutions est un sous-espace affine de \(\mathbb{K}^p\) de dimension :
\(p – \mathrm{rg}(A)\)
En particulier, la solution est unique si et seulement si \(\mathrm{rg}(A) = p\).
Cette formule synthétise l’essentiel de la théorie des systèmes linéaires : le nombre de « paramètres libres » dans la solution est \(p – \mathrm{rg}(A)\), ce qui correspond à la dimension du noyau de \(A\).
Place maintenant à la pratique avec huit exercices de difficulté croissante.
V. Exercices corrigés
Les exercices suivants couvrent les trois méthodes de calcul et les propriétés fondamentales du rang. Chaque correction est détaillée pas à pas.
Exercice 1 ★ — Rang par échelonnement de Gauss
Calculer le rang de \(A = \begin{pmatrix} 1 & 2 & -1 & 3 \\ 2 & 5 & 0 & 7 \\ 3 & 7 & -1 & 10 \end{pmatrix} \in \mathcal{M}_{3,4}(\mathbb{R})\).
Voir la correction
On échelonne par opérations élémentaires sur les lignes.
\(L_2 \leftarrow L_2 – 2L_1\) et \(L_3 \leftarrow L_3 – 3L_1\) :
\(A \sim \begin{pmatrix} 1 & 2 & -1 & 3 \\ 0 & 1 & 2 & 1 \\ 0 & 1 & 2 & 1 \end{pmatrix}\)\(L_3 \leftarrow L_3 – L_2\) :
\(A \sim \begin{pmatrix} 1 & 2 & -1 & 3 \\ 0 & 1 & 2 & 1 \\ 0 & 0 & 0 & 0 \end{pmatrix}\)La forme échelonnée possède 2 pivots, donc \(\mathrm{rg}(A) = 2\).
Exercice 2 ★ — Application directe du théorème du rang
Soit \(f : \mathbb{R}^5 \to \mathbb{R}^3\) une application linéaire telle que \(\dim(\ker f) = 3\). Déterminer \(\mathrm{rg}(f)\). L’application \(f\) est-elle surjective ?
Voir la correction
Par le théorème du rang : \(\mathrm{rg}(f) = \dim(\mathbb{R}^5) – \dim(\ker f) = 5 – 3 = 2\).
Pour la surjectivité : \(f\) est surjective si et seulement si \(\mathrm{rg}(f) = \dim(\mathbb{R}^3) = 3\). Or \(\mathrm{rg}(f) = 2 \neq 3\), donc \(f\) n’est pas surjective.
Exercice 3 ★★ — Rang dépendant d’un paramètre
Soit \(a \in \mathbb{R}\). Déterminer le rang de \(A(a) = \begin{pmatrix} 1 & 1 & 0 \\ 0 & 1 & 1 \\ 1 & a & 1 \end{pmatrix}\) en fonction de \(a\).
Voir la correction
Méthode des mineurs. On calcule le déterminant :
\(\det(A(a)) = 1(1 – a) – 1(0 – 1) + 0 = 1 – a + 1 = 2 – a\)Discussion :
- Si \(a \neq 2\) : \(\det(A(a)) = 2 – a \neq 0\), donc \(\mathrm{rg}(A(a)) = 3\).
- Si \(a = 2\) : \(\det(A(2)) = 0\), donc \(\mathrm{rg}(A(2)) \leq 2\). On vérifie \(\det\begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix} = 1 \neq 0\), donc \(\mathrm{rg}(A(2)) = 2\).
Conclusion : \(\mathrm{rg}(A(a)) = \begin{cases} 3 & \text{si } a \neq 2 \\ 2 & \text{si } a = 2 \end{cases}\)
Fiche de synthèse — Rang d’une matrice
Définitions, théorème du rang, arbre décisionnel des méthodes et formules clés sur une seule page imprimable.
📄 Télécharger la fiche PDFIdéal pour réviser avant une colle ou un DS d’algèbre linéaire.
Exercice 4 ★★ — Produit nul et rang
Soient \(A, B \in \mathcal{M}_n(\mathbb{K})\) telles que \(AB = 0\). Montrer que \(\mathrm{rg}(A) + \mathrm{rg}(B) \leq n\).
Voir la correction
\(AB = 0\) signifie \(f_A \circ f_B = 0\), donc \(\mathrm{Im}(f_B) \subset \ker(f_A)\).
En passant aux dimensions : \(\mathrm{rg}(B) = \dim(\mathrm{Im}\, f_B) \leq \dim(\ker f_A)\).
Or, par le théorème du rang : \(\dim(\ker f_A) = n – \mathrm{rg}(A)\).
D’où \(\mathrm{rg}(B) \leq n – \mathrm{rg}(A)\), soit \(\mathrm{rg}(A) + \mathrm{rg}(B) \leq n\). ∎
Remarque : ce résultat est aussi un corollaire immédiat de l’inégalité de Sylvester appliquée au produit \(AB = 0\) : \(0 = \mathrm{rg}(AB) \geq \mathrm{rg}(A) + \mathrm{rg}(B) – n\).
Exercice 5 ★★★ — Caractérisation des matrices de rang 1
Soit \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) non nulle. Montrer que \(\mathrm{rg}(A) = 1\) si et seulement s’il existe \(X \in \mathcal{M}_{n,1}(\mathbb{K})\) et \(Y \in \mathcal{M}_{p,1}(\mathbb{K})\) non nuls tels que \(A = X \cdot {}^t\!Y\).
Voir la correction
Sens \(\Leftarrow\) : Si \(A = X \cdot {}^t\!Y\) avec \(X \neq 0\) et \(Y \neq 0\), la \(j\)-ème colonne de \(A\) est \(y_j X\) (où \(y_j\) est la \(j\)-ème composante de \(Y\)). Toutes les colonnes sont proportionnelles à \(X \neq 0\), donc \(\mathrm{Vect}(\text{colonnes}) = \mathrm{Vect}(X)\), et \(\mathrm{rg}(A) = 1\).
Sens \(\Rightarrow\) : Si \(\mathrm{rg}(A) = 1\), l’espace des colonnes est de dimension \(1\). Soit \(C_j\) une colonne non nulle de \(A\) : posons \(X = C_j\). Chaque colonne \(C_i\) de \(A\) vérifie \(C_i \in \mathrm{Vect}(X)\), donc \(C_i = \lambda_i X\) pour un certain scalaire \(\lambda_i\).
Posons \(Y = (\lambda_1, \ldots, \lambda_p)^T \in \mathcal{M}_{p,1}(\mathbb{K})\). Alors la \(i\)-ème colonne de \(X \cdot {}^t\!Y\) est \(\lambda_i X = C_i\), donc \(A = X \cdot {}^t\!Y\). Et \(Y \neq 0\) car \(A \neq 0\). ∎
Exercice 6 ★★★ — Système linéaire et rang
Discuter selon les valeurs de \(a \in \mathbb{R}\) et \(b \in \mathbb{R}\) l’existence et l’unicité des solutions du système :
\(\begin{cases} x + y + z = 1 \\ x + 2y + 3z = 2 \\ 2x + 3y + az = b \end{cases}\)Voir la correction
On échelonne la matrice augmentée \((A \mid B) = \begin{pmatrix} 1 & 1 & 1 & 1 \\ 1 & 2 & 3 & 2 \\ 2 & 3 & a & b \end{pmatrix}\).
\(L_2 \leftarrow L_2 – L_1\) et \(L_3 \leftarrow L_3 – 2L_1\) :
\((A \mid B) \sim \begin{pmatrix} 1 & 1 & 1 & 1 \\ 0 & 1 & 2 & 1 \\ 0 & 1 & a – 2 & b – 2 \end{pmatrix}\)\(L_3 \leftarrow L_3 – L_2\) :
\((A \mid B) \sim \begin{pmatrix} 1 & 1 & 1 & 1 \\ 0 & 1 & 2 & 1 \\ 0 & 0 & a – 4 & b – 3 \end{pmatrix}\)Discussion :
- Si \(a \neq 4\) : \(\mathrm{rg}(A) = \mathrm{rg}(A \mid B) = 3\) (quel que soit \(b\)). Le système est de Cramer : solution unique.
- Si \(a = 4\) et \(b = 3\) : \(\mathrm{rg}(A) = \mathrm{rg}(A \mid B) = 2\). Le système est compatible, et la dimension de l’espace des solutions est \(3 – 2 = 1\) : infinité de solutions dépendant d’un paramètre.
- Si \(a = 4\) et \(b \neq 3\) : \(\mathrm{rg}(A) = 2\) mais \(\mathrm{rg}(A \mid B) = 3\). Le système est incompatible (aucune solution).
Exercice 7 ★★★★ — Matrice idempotente (type concours)
Soit \(A \in \mathcal{M}_n(\mathbb{K})\) telle que \(A^2 = A\) (matrice idempotente).
- Montrer que \(\mathrm{rg}(A) + \mathrm{rg}(I_n – A) = n\).
- En déduire que les seules valeurs propres possibles de \(A\) sont \(0\) et \(1\).
- Montrer que \(\mathrm{tr}(A) = \mathrm{rg}(A)\).
Voir la correction
1. On a \(A^2 = A\), donc \(A(I_n – A) = A – A^2 = 0\). Par l’exercice 4, on en déduit :
\(\mathrm{rg}(A) + \mathrm{rg}(I_n – A) \leq n \qquad (\star)\)Par ailleurs, la sous-additivité du rang donne \(n = \mathrm{rg}(I_n) = \mathrm{rg}(A + (I_n – A)) \leq \mathrm{rg}(A) + \mathrm{rg}(I_n – A)\), soit :
\(\mathrm{rg}(A) + \mathrm{rg}(I_n – A) \geq n \qquad (\star\star)\)De \((\star)\) et \((\star\star)\) : \(\mathrm{rg}(A) + \mathrm{rg}(I_n – A) = n\). ∎
2. Si \(\lambda\) est une valeur propre de \(A\), associée à un vecteur propre \(v \neq 0\) : \(Av = \lambda v\). Alors \(A^2 v = A(\lambda v) = \lambda^2 v\). Puisque \(A^2 = A\), on a \(\lambda v = \lambda^2 v\), soit \((\lambda^2 – \lambda)v = 0\). Comme \(v \neq 0\), \(\lambda(\lambda – 1) = 0\), donc \(\lambda \in \{0, 1\}\). ∎
3. Le polynôme minimal de \(A\) divise \(X^2 – X = X(X – 1)\), qui est scindé à racines simples. Donc \(A\) est diagonalisable. Il existe \(P\) inversible telle que :
\(A = P\,\mathrm{diag}(\underbrace{1, \ldots, 1}_{r}, \underbrace{0, \ldots, 0}_{n – r})\,P^{-1}\)avec \(r = \mathrm{rg}(A)\) (dimension de l’espace propre associé à \(1\)). La trace est invariante par similitude, donc :
\(\mathrm{tr}(A) = \mathrm{tr}(\mathrm{diag}(1, \ldots, 1, 0, \ldots, 0)) = r = \mathrm{rg}(A) \) ∎
Exercice 8 ★★★★ — Rang des itérés (type concours)
Soit \(f \in \mathcal{L}(E)\) avec \(\dim E = n\).
- Montrer que pour tout \(k \geq 0\), \(\ker(f^k) \subset \ker(f^{k+1})\).
- En déduire que la suite \(\bigl(\mathrm{rg}(f^k)\bigr)_{k \geq 0}\) est décroissante.
- Montrer qu’il existe \(N \leq n\) tel que pour tout \(k \geq N\), \(\mathrm{rg}(f^k) = \mathrm{rg}(f^N)\).
Voir la correction
1. Soit \(x \in \ker(f^k)\), c’est-à-dire \(f^k(x) = 0\). Alors \(f^{k+1}(x) = f(f^k(x)) = f(0) = 0\), donc \(x \in \ker(f^{k+1})\). D’où \(\ker(f^k) \subset \ker(f^{k+1})\). ∎
2. Par la question 1, \(\dim(\ker f^k) \leq \dim(\ker f^{k+1})\). Par le théorème du rang :
\(\mathrm{rg}(f^{k+1}) = n – \dim(\ker f^{k+1}) \leq n – \dim(\ker f^k) = \mathrm{rg}(f^k)\)La suite \(\bigl(\mathrm{rg}(f^k)\bigr)_{k}\) est donc décroissante. ∎
3. La suite \(\bigl(\mathrm{rg}(f^k)\bigr)_{k}\) est une suite d’entiers naturels décroissante (minorée par \(0\)). Elle est donc stationnaire : il existe un rang \(N\) tel que pour tout \(k \geq N\), \(\mathrm{rg}(f^k) = \mathrm{rg}(f^N)\).
De plus, si la suite décroît strictement à chaque étape, elle diminue d’au moins \(1\) à chaque itération. Puisqu’elle part de \(\mathrm{rg}(f^0) = \mathrm{rg}(\mathrm{Id}) = n\) et est minorée par \(0\), elle stationne en au plus \(n\) étapes, donc \(N \leq n\). ∎
VI. Erreurs fréquentes et pièges classiques
Voici les quatre erreurs les plus courantes sur le rang, avec copie fautive commentée et correction.
Erreur 1 — Compter les lignes non nulles avant échelonnement
❌ Copie fautive : « \(A = \begin{pmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{pmatrix}\). La matrice a 3 lignes non nulles, donc \(\mathrm{rg}(A) = 3\). »
Diagnostic : Le rang se lit sur la forme échelonnée, pas sur la matrice originale. Après Gauss : \(A \sim \begin{pmatrix} 1 & 2 & 3 \\ 0 & -3 & -6 \\ 0 & 0 & 0 \end{pmatrix}\), donc \(\mathrm{rg}(A) = 2\).
✅ Correction : toujours échelonner d’abord, puis compter les pivots.
Erreur 2 — Utiliser dim(F) au lieu de dim(E) dans le théorème du rang
❌ Copie fautive : « Soit \(f : \mathbb{R}^3 \to \mathbb{R}^5\) de rang 2. Par le théorème du rang, \(\dim(\ker f) = 5 – 2 = 3\). »
Diagnostic : Le théorème du rang utilise la dimension de l’espace de départ \(E\), pas celle de l’espace d’arrivée \(F\).
✅ Correction : \(\dim(\ker f) = \dim(\mathbb{R}^3) – \mathrm{rg}(f) = 3 – 2 = 1\).
Erreur 3 — Croire que le rang est additif
❌ Copie fautive : « \(\mathrm{rg}(A) = 2\) et \(\mathrm{rg}(B) = 3\), donc \(\mathrm{rg}(A + B) = 5\). »
Diagnostic : Le rang n’est PAS additif. On a seulement la sous-additivité \(\mathrm{rg}(A + B) \leq \mathrm{rg}(A) + \mathrm{rg}(B)\) et la minoration \(\mathrm{rg}(A + B) \geq |\mathrm{rg}(A) – \mathrm{rg}(B)|\).
✅ Correction : on peut seulement affirmer \(1 \leq \mathrm{rg}(A + B) \leq 5\). Pour la valeur exacte, il faut un calcul.
Erreur 4 — Confondre « rang maximal » et « inversible » pour une matrice rectangulaire
❌ Copie fautive : « \(A \in \mathcal{M}_{3,5}(\mathbb{R})\) et \(\mathrm{rg}(A) = 3\). Donc \(A\) est inversible. »
Diagnostic : L’inversibilité n’est définie que pour les matrices carrées. Ici \(A\) a un rang maximal (\(\mathrm{rg}(A) = \min(3, 5) = 3\)), ce qui signifie que l’application linéaire associée est injective — mais \(A\) n’est pas carrée, donc la notion d’inversibilité ne s’applique pas.
✅ Correction : écrire « \(A\) est de rang maximal » ou « l’application linéaire associée est injective », mais jamais « \(A\) est inversible ».
VII. Questions fréquentes
Comment déterminer le rang d'une matrice ?
La méthode la plus efficace est l’échelonnement de Gauss : on transforme la matrice en forme échelonnée par opérations élémentaires sur les lignes, puis on compte le nombre de pivots (lignes non nulles). Ce nombre est le rang. Pour les matrices dépendant d’un paramètre en petite dimension, la méthode des mineurs (calculer le déterminant et discuter) est souvent plus rapide. Enfin, si l’on connaît le noyau de l’application linéaire associée, le théorème du rang donne directement le résultat.
Quelle est la formule du rang (théorème du rang) ?
Le théorème du rang s’énonce : pour toute application linéaire \(f : E \to F\) avec \(E\) de dimension finie, \(\dim(\ker f) + \mathrm{rg}(f) = \dim E\). En termes matriciels, pour \(A \in \mathcal{M}_{n,p}(\mathbb{K})\) : \(\dim(\ker A) + \mathrm{rg}(A) = p\) (nombre de colonnes). Cette formule relie trois grandeurs fondamentales : la dimension du noyau, le rang et la dimension de l’espace de départ.
Quelle est la différence entre rang et dimension ?
La dimension est un invariant d’un espace vectoriel : c’est le cardinal d’une base. Le rang est un invariant d’une matrice (ou d’une application linéaire) : c’est la dimension de l’espace engendré par les colonnes, ou de façon équivalente la dimension de l’image. On a toujours \(0 \leq \mathrm{rg}(A) \leq \min(n, p)\) pour \(A \in \mathcal{M}_{n,p}(\mathbb{K})\). Le rang est donc une dimension — celle d’un sous-espace particulier.
Comment trouver le rang d'une matrice rectangulaire (par exemple 2×4) ?
La méthode est la même que pour une matrice carrée : échelonnement de Gauss. On effectue des opérations élémentaires sur les lignes pour obtenir une forme échelonnée, puis on compte les pivots. Pour une matrice \(2 \times 4\), le rang est au plus \(\min(2, 4) = 2\), c’est-à-dire que le rang ne peut pas dépasser le nombre de lignes.
Le rang d'une matrice change-t-il lors d'un changement de base ?
Non. Le rang est un invariant par équivalence : si \(P\) et \(Q\) sont des matrices inversibles, \(\mathrm{rg}(PAQ) = \mathrm{rg}(A)\). En particulier, un changement de base (qui revient à conjuguer par une matrice inversible) ne modifie pas le rang. C’est pourquoi le rang est un invariant de l’application linéaire sous-jacente, pas seulement de sa matrice dans une base donnée.
VIII. Pour aller plus loin
Tu maîtrises maintenant la notion de rang : définition, propriétés, méthodes de calcul et applications aux systèmes linéaires. Pour approfondir, explore les pages suivantes du cocon algèbre linéaire :
- Matrice inversible — le lien entre rang maximal, déterminant non nul et inversibilité
- Factorisation de Gauss — l’outil fondamental pour le calcul du rang
- Noyau d’une matrice — la face cachée du théorème du rang
- Matrice d’une application linéaire — rang et image d’une application linéaire
- Déterminant d’une matrice — le critère de rang maximal via le déterminant
- Diagonalisation — le rang apparaît dans l’étude du spectre et de la diagonalisabilité
- Exercices corrigés sur les matrices — 15+ exercices transversaux pour s’entraîner davantage