Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec le niveau d’exigence attendu en classe préparatoire. Découvrir le professeur
Le déterminant est un invariant fondamental associé à toute matrice carrée. Il caractérise l’inversibilité, intervient dans les formules de Cramer et le calcul des valeurs propres, et possède une interprétation géométrique profonde (aire, volume, orientation). Tu trouveras ici la construction du déterminant, ses propriétés fondamentales avec les démonstrations exigibles, les méthodes de calcul et 8 exercices corrigés de difficulté croissante.
I. Définition du déterminant
A. Le cas 2×2 et motivation
En dimension 2, le déterminant d’une matrice \(A = \begin{pmatrix} a & b \\ c & d \end{pmatrix} \in \mathcal{M}_2(\mathbb{K})\) est le scalaire :
\(\det(A) = ad – bc\)Ce nombre caractérise l’inversibilité de \(A\) : la matrice est inversible si et seulement si \(\det(A) \neq 0\), et dans ce cas :
\(A^{-1} = \displaystyle\frac{1}{ad – bc} \begin{pmatrix} d & -b \\ -c & a \end{pmatrix}\)Pour un traitement complet du cas 2×2, consulte la page dédiée à l’inverse d’une matrice 2×2. L’enjeu est maintenant de généraliser cette construction à toute dimension \(n \geq 1\).
B. Mineurs et cofacteurs
Avant de définir le déterminant en dimension quelconque, introduisons les outils nécessaires à la récurrence.
Définition — Mineur
Soit \(A = (a_{i,j}) \in \mathcal{M}_n(\mathbb{K})\) avec \(n \geq 2\). Le mineur \(M_{i,j}\) est le déterminant de la sous-matrice de taille \((n-1) \times (n-1)\) obtenue en supprimant la ligne \(i\) et la colonne \(j\) de \(A\).
Définition — Cofacteur
Le cofacteur associé au coefficient \(a_{i,j}\) est :
\(C_{i,j} = (-1)^{i+j}\, M_{i,j}\)
Le signe \((-1)^{i+j}\) suit un damier :
\(\begin{pmatrix} + & – & + & \cdots \\ – & + & – & \cdots \\ + & – & + & \cdots \\ \vdots & \vdots & \vdots & \ddots \end{pmatrix}\)Retenir le signe : la case \((i,j)\) porte le signe \(+\) si \(i+j\) est pair, le signe \(–\) si \(i+j\) est impair. La case \((1,1)\) est toujours \(+\).
C. Définition par récurrence
Définition — Déterminant (par récurrence sur n)
- Si \(n = 1\) : \(\det\bigl((a)\bigr) = a\).
- Si \(n \geq 2\) : on développe selon la première ligne :
\(\det(A) = \sum_{j=1}^{n} a_{1,j}\, C_{1,j} = \sum_{j=1}^{n} (-1)^{1+j}\, a_{1,j}\, M_{1,j}\)
Un résultat fondamental affirme que ce calcul ne dépend pas du choix de la ligne (ni de la colonne) utilisée pour le développement.
Théorème — Développement selon une ligne ou une colonne
Pour tout \(i \in \{1, \ldots, n\}\) (développement selon la ligne \(i\)) :
\(\det(A) = \sum_{j=1}^{n} a_{i,j}\, C_{i,j}\)
Pour tout \(j \in \{1, \ldots, n\}\) (développement selon la colonne \(j\)) :
\(\det(A) = \sum_{i=1}^{n} a_{i,j}\, C_{i,j}\)
Exemple — Développement selon la première colonne
Soit \(A = \begin{pmatrix} 1 & 2 & 3 \\ 0 & 4 & 5 \\ 0 & 0 & 6 \end{pmatrix}\). La première colonne contient deux zéros : on développe selon celle-ci.
\(\det(A) = 1 \cdot (+1) \cdot \begin{vmatrix} 4 & 5 \\ 0 & 6 \end{vmatrix} + 0 + 0 = 1 \cdot (24 – 0) = 24\)
On retrouve le produit des coefficients diagonaux : c’est une matrice triangulaire.
D. Caractérisation axiomatique et formule de Leibniz
La construction par récurrence peut sembler dépendante d’un choix arbitraire (la ligne de développement). La caractérisation axiomatique élimine cette ambiguïté.
Théorème — Caractérisation du déterminant ⋆
Il existe une unique application \(\det : \mathcal{M}_n(\mathbb{K}) \to \mathbb{K}\) vérifiant :
- n-linéarité : \(\det\) est linéaire par rapport à chaque colonne (les autres étant fixées).
- Alternance : si \(A\) possède deux colonnes égales, alors \(\det(A) = 0\).
- Normalisation : \(\det(I_n) = 1\).
Cette caractérisation est un outil de démonstration extrêmement puissant : pour prouver une propriété du déterminant, il suffit de vérifier qu’elle découle de ces trois axiomes.
L’existence est assurée par la formule de Leibniz, qui fournit une expression explicite :
Formule de Leibniz
\(\det(A) = \sum_{\sigma \in \mathfrak{S}_n} \varepsilon(\sigma) \prod_{i=1}^{n} a_{i,\sigma(i)}\)
où \(\mathfrak{S}_n\) est le groupe symétrique d’ordre \(n\) et \(\varepsilon(\sigma)\) la signature de la permutation \(\sigma\).
L’unicité découle du fait que toute forme \(n\)-linéaire alternée sur \(\mathbb{K}^n\) est proportionnelle au déterminant. Puisque la normalisation fixe la constante de proportionnalité à 1, le déterminant est unique.
II. Propriétés fondamentales du déterminant
Les propriétés ci-dessous découlent directement de la caractérisation axiomatique. Certaines démonstrations sont marquées ⋆ (exigibles en colle et concours).
A. Multilinéarité et caractère alterné
Notons \(C_1, \ldots, C_n\) les colonnes de \(A\). L’application \(\det\) est :
- Linéaire en chaque colonne : pour tout \(j\), si \(C_j = \lambda C_j^\prime + \mu C_j^{\prime\prime}\) (les autres colonnes étant fixées), alors \(\det(\ldots, C_j, \ldots) = \lambda\,\det(\ldots, C_j^\prime, \ldots) + \mu\,\det(\ldots, C_j^{\prime\prime}, \ldots)\).
- Alternée : si l’on échange deux colonnes, le déterminant change de signe.
Propriété — Échange de colonnes
Si \(A^\prime\) est obtenue à partir de \(A\) en échangeant deux colonnes, alors \(\det(A^\prime) = -\det(A)\).
Démonstration
Soient \(C_i\) et \(C_j\) deux colonnes de \(A\) avec \(i \neq j\). Posons \(C_i + C_j\) à la place de \(C_i\) et de \(C_j\) simultanément. Par alternance (deux colonnes égales) :
\(0 = \det(\ldots, C_i + C_j, \ldots, C_i + C_j, \ldots)\)En développant par bilinéarité sur les colonnes \(i\) et \(j\) :
\(0 = \det(\ldots, C_i, \ldots, C_i, \ldots) + \det(\ldots, C_i, \ldots, C_j, \ldots) + \det(\ldots, C_j, \ldots, C_i, \ldots) + \det(\ldots, C_j, \ldots, C_j, \ldots)\)Le premier et le dernier terme sont nuls (colonnes égales). Donc \(\det(\ldots, C_j, \ldots, C_i, \ldots) = -\det(\ldots, C_i, \ldots, C_j, \ldots)\). ■
Une conséquence immédiate de la multilinéarité :
Propriété — Facteur scalaire
Pour tout \(\lambda \in \mathbb{K}\) et toute \(A \in \mathcal{M}_n(\mathbb{K})\) :
\(\det(\lambda A) = \lambda^n \det(A)\)
Démonstration
Chaque colonne de \(\lambda A\) est \(\lambda\) fois la colonne correspondante de \(A\). Par linéarité en chacune des \(n\) colonnes, on sort \(\lambda\) à chaque fois : \(\det(\lambda A) = \lambda^n \det(A)\). ■
Erreur fatale : écrire \(\det(\lambda A) = \lambda \det(A)\). Le déterminant est n-linéaire, pas linéaire ! La puissance \(n\) est indispensable. Par exemple, \(\det(2 I_3) = 2^3 = 8 \neq 2\).
B. Effet des opérations élémentaires sur le déterminant
Les opérations élémentaires sur les lignes (ou colonnes) ont un effet simple et prévisible sur le déterminant. C’est la clé des méthodes de calcul pratiques.
| Opération | Notation | Effet sur \(\det(A)\) |
|---|---|---|
| Ajout d’un multiple d’une ligne à une autre | \(L_i \leftarrow L_i + \lambda L_j\) (\(i \neq j\)) | Inchangé |
| Échange de deux lignes | \(L_i \leftrightarrow L_j\) | Multiplié par \(-1\) |
| Multiplication d’une ligne par un scalaire | \(L_i \leftarrow \lambda L_i\) (\(\lambda \neq 0\)) | Multiplié par \(\lambda\) |
Les mêmes résultats valent pour les opérations sur les colonnes.
Démonstration (ajout d’un multiple)
Notons \(C_1, \ldots, C_n\) les colonnes de \(A\). L’opération \(C_i \leftarrow C_i + \lambda C_j\) donne :
\(\det(\ldots, C_i + \lambda C_j, \ldots, C_j, \ldots) = \det(\ldots, C_i, \ldots, C_j, \ldots) + \lambda\,\det(\ldots, C_j, \ldots, C_j, \ldots)\)Le second terme est nul (deux colonnes identiques). Donc le déterminant est inchangé. ■
Conséquence pratique : l’opération \(L_i \leftarrow L_i + \lambda L_j\) est « gratuite » : elle ne modifie pas le déterminant. C’est l’opération que l’on utilise massivement dans la méthode de Gauss pour créer des zéros.
C. Déterminant d’un produit ⋆
Théorème — Morphisme multiplicatif ⋆
Pour toutes matrices \(A, B \in \mathcal{M}_n(\mathbb{K})\) :
\(\det(AB) = \det(A) \cdot \det(B)\)
Démonstration ⋆
Fixons \(A \in \mathcal{M}_n(\mathbb{K})\) et considérons l’application \(\varphi : B \mapsto \det(AB)\).
Étape 1 — \(\varphi\) est \(n\)-linéaire alternée. Si \(B\) a pour colonnes \(C_1, \ldots, C_n\), alors \(AB\) a pour colonnes \(AC_1, \ldots, AC_n\). L’application \(C_j \mapsto \det(\ldots, AC_j, \ldots)\) est linéaire (car le produit matrice-vecteur est linéaire et \(\det\) est linéaire en chaque colonne). Si deux colonnes de \(B\) sont égales, deux colonnes de \(AB\) le sont aussi, donc \(\varphi(B) = 0\). Ainsi \(\varphi\) est \(n\)-linéaire alternée.
Étape 2 — Conclusion par unicité. Par la caractérisation axiomatique, toute forme \(n\)-linéaire alternée est proportionnelle à \(\det\) : il existe \(\alpha \in \mathbb{K}\) tel que \(\varphi(B) = \alpha \cdot \det(B)\) pour toute \(B\). En prenant \(B = I_n\) : \(\alpha = \varphi(I_n) = \det(A \cdot I_n) = \det(A)\). D’où \(\det(AB) = \det(A) \cdot \det(B)\). ■
Attention : il n’y a aucune formule simple pour \(\det(A + B)\). En général, \(\det(A + B) \neq \det(A) + \det(B)\). Le déterminant est multiplicatif, pas additif.
D. Déterminant de la transposée ⋆
Théorème ⋆
Pour toute \(A \in \mathcal{M}_n(\mathbb{K})\) :
\(\det\!\left({}^tA\right) = \det(A)\)
Démonstration ⋆
On utilise la formule de Leibniz. Par définition de la transposée, \(({}^tA)_{i,j} = a_{j,i}\). Donc :
\(\det\!\left({}^tA\right) = \sum_{\sigma \in \mathfrak{S}_n} \varepsilon(\sigma) \prod_{i=1}^{n} a_{\sigma(i),i}\)Effectuons le changement d’indice \(\tau = \sigma^{-1}\). Quand \(\sigma\) parcourt \(\mathfrak{S}_n\), \(\tau\) le parcourt aussi. De plus \(\varepsilon(\sigma^{-1}) = \varepsilon(\sigma)\) et :
\(\prod_{i=1}^{n} a_{\sigma(i),i} = \prod_{j=1}^{n} a_{j,\sigma^{-1}(j)} = \prod_{j=1}^{n} a_{j,\tau(j)}\)(en posant \(j = \sigma(i)\), donc \(i = \tau(j)\)). Ainsi :
\(\det\!\left({}^tA\right) = \sum_{\tau \in \mathfrak{S}_n} \varepsilon(\tau) \prod_{j=1}^{n} a_{j,\tau(j)} = \det(A)\) ■
Conséquence fondamentale : toute propriété du déterminant valable pour les colonnes l’est aussi pour les lignes (et réciproquement). C’est pourquoi le tableau des opérations élémentaires s’applique indifféremment aux lignes et aux colonnes.
E. Déterminant et inversibilité ⋆
Théorème — Critère d’inversibilité ⋆
Soit \(A \in \mathcal{M}_n(\mathbb{K})\). Alors :
\(A \text{ est inversible} \iff \det(A) \neq 0\)
Démonstration ⋆
Sens \(\Rightarrow\) : si \(A\) est inversible, alors \(AA^{-1} = I_n\). Par la propriété multiplicative : \(\det(A) \cdot \det(A^{-1}) = \det(I_n) = 1\). Donc \(\det(A) \neq 0\).
Sens \(\Leftarrow\) : si \(\det(A) \neq 0\), on réduit \(A\) par opérations élémentaires sur les lignes en une matrice triangulaire \(T\). Chaque opération « \(L_i \leftarrow L_i + \lambda L_j\) » ne change pas le déterminant ; chaque échange multiplie par \(-1\). Donc \(\det(T) = \pm\, \det(A) \neq 0\). Les coefficients diagonaux de \(T\) sont tous non nuls (car leur produit vaut \(\det(T)\)). On poursuit la réduction pour obtenir \(I_n\) : \(A\) est donc inversible. ■
Ce théorème relie trois caractérisations équivalentes de l’inversibilité :
\(A \text{ inversible} \iff \det(A) \neq 0 \iff \mathrm{rg}(A) = n\)Pour une étude complète des critères d’inversibilité, consulte la page matrice inversible : définition, critères et déterminant.
Le cours complet sur le déterminant en une fiche
Définitions, propriétés clés, tableau des opérations élémentaires et formules indispensables — tout tient sur une page recto-verso.
📄 Télécharger la fiche PDFIdéal pour tes révisions de colles et tes fiches de concours.
III. Méthodes de calcul du déterminant
En pratique, deux grandes stratégies se complètent : le développement selon une ligne/colonne bien choisie et la triangularisation par pivot de Gauss.
A. Développement selon une ligne ou une colonne
Le principe est simple : choisir la ligne (ou la colonne) contenant le plus de zéros, puis développer.
Exemple — Choix stratégique de la colonne
Calculons \(\det(A)\) avec \(A = \begin{pmatrix} 3 & 0 & 2 & 0 \\ 1 & 4 & 0 & 0 \\ 5 & 1 & 1 & 0 \\ 2 & 3 & 0 & 7 \end{pmatrix}\).
La colonne 4 contient trois zéros. On développe selon \(C_4\) :
\(\det(A) = 7 \cdot (-1)^{4+4} \cdot \begin{vmatrix} 3 & 0 & 2 \\ 1 & 4 & 0 \\ 5 & 1 & 1 \end{vmatrix} = 7 \cdot \det(B)\)
On développe \(\det(B)\) selon \(L_1\) (deux non-nuls au lieu de trois si on choisissait une autre) :
\(\det(B) = 3 \cdot \begin{vmatrix} 4 & 0 \\ 1 & 1 \end{vmatrix} + 2 \cdot (-1)^{1+3} \cdot \begin{vmatrix} 1 & 4 \\ 5 & 1 \end{vmatrix} = 3(4-0) + 2(1-20) = 12 – 38 = -26\)
Donc \(\det(A) = 7 \times (-26) = -182\).
Pour les techniques spécifiques aux matrices 3×3 (règle de Sarrus) et 4×4 (développement par cofacteurs), consulte les pages dédiées : déterminant d’une matrice 3×3 et déterminant d’une matrice 4×4.
B. Triangularisation par opérations élémentaires
Pour les matrices de grande taille ou sans zéro « offert », la méthode la plus efficace consiste à réduire la matrice sous forme triangulaire par la méthode de Gauss, en comptabilisant les modifications du déterminant.
Méthode en 4 étapes
- Choisir un pivot non nul dans la première colonne (échanger les lignes si nécessaire : chaque échange multiplie le déterminant par \(-1\)).
- Éliminer les coefficients sous le pivot par des opérations \(L_i \leftarrow L_i – \displaystyle\frac{a_{i,1}}{a_{1,1}} L_1\) (ne modifient pas le déterminant).
- Recommencer sur la sous-matrice de taille \((n-1) \times (n-1)\).
- Le déterminant final est \((-1)^s \cdot \prod_{k=1}^{n} t_{k,k}\), où \(s\) est le nombre d’échanges de lignes et \(t_{k,k}\) les coefficients diagonaux de la matrice triangulaire obtenue.
Exemple — Triangularisation
Soit \(A = \begin{pmatrix} 2 & 1 & 3 \\ 4 & 5 & 7 \\ 6 & 2 & 1 \end{pmatrix}\). On effectue \(L_2 \leftarrow L_2 – 2L_1\) et \(L_3 \leftarrow L_3 – 3L_1\) :
\(\begin{pmatrix} 2 & 1 & 3 \\ 0 & 3 & 1 \\ 0 & -1 & -8 \end{pmatrix}\)
Puis \(L_3 \leftarrow L_3 + \displaystyle\frac{1}{3}L_2\) :
\(\begin{pmatrix} 2 & 1 & 3 \\ 0 & 3 & 1 \\ 0 & 0 & -\displaystyle\frac{23}{3} \end{pmatrix}\)
Aucun échange de lignes effectué (\(s = 0\)). Donc :
\(\det(A) = 2 \times 3 \times \left(-\displaystyle\frac{23}{3}\right) = -46\)
C. Quelle méthode choisir ?
Le choix de la méthode dépend de la structure de la matrice. Voici un arbre décisionnel :
| Situation | Méthode | Complexité |
|---|---|---|
| Matrice 1×1 | \(\det\bigl((a)\bigr) = a\) | Immédiat |
| Matrice 2×2 | Formule \(ad – bc\) | Immédiat |
| Matrice triangulaire / diagonale | Produit des coefficients diagonaux | Immédiat |
| Matrice par blocs triangulaires | \(\det(A)\cdot\det(D)\) | Dépend des blocs |
| Ligne/colonne avec beaucoup de zéros | Développement selon cette ligne/colonne | Réduction de taille |
| Cas général | Triangularisation (Gauss) | \(O(n^3)\) |
IV. Déterminants classiques en prépa
Certains déterminants apparaissent si fréquemment en exercices et concours qu’il faut les connaître par cœur ou savoir les retrouver rapidement.
A. Matrices triangulaires et diagonales
Propriété
Le déterminant d’une matrice triangulaire (supérieure ou inférieure) est le produit de ses coefficients diagonaux :
\(\det(T) = \prod_{i=1}^{n} t_{i,i}\)
En particulier, \(\det(I_n) = 1\) et \(\det(\mathrm{diag}(\lambda_1, \ldots, \lambda_n)) = \lambda_1 \cdots \lambda_n\).
Démonstration
Par récurrence sur \(n\). Pour \(n = 1\), c’est immédiat. Si \(T\) est triangulaire supérieure de taille \(n\), on développe selon la première colonne : le seul terme non nul est \(t_{1,1} \cdot M_{1,1}\), où \(M_{1,1}\) est le déterminant de la sous-matrice triangulaire supérieure de taille \(n-1\). Par hypothèse de récurrence : \(\det(T) = t_{1,1} \cdot \prod_{i=2}^{n} t_{i,i} = \prod_{i=1}^{n} t_{i,i}\). ■
B. Déterminant par blocs triangulaires
Théorème — Déterminant par blocs
Si \(M = \begin{pmatrix} A & B \\ 0 & D \end{pmatrix}\) où \(A \in \mathcal{M}_p(\mathbb{K})\) et \(D \in \mathcal{M}_q(\mathbb{K})\) (avec \(p + q = n\)), alors :
\(\det(M) = \det(A) \cdot \det(D)\)
De même pour les blocs triangulaires inférieurs : \(\det\begin{pmatrix} A & 0 \\ C & D \end{pmatrix} = \det(A) \cdot \det(D)\).
Démonstration (cas triangulaire supérieur par blocs)
Fixons \(D\) et considérons l’application \(\varphi : A \mapsto \det(M)\). Elle est \(p\)-linéaire alternée en les colonnes de \(A\) (car les \(p\) premières colonnes de \(M\) ont la forme \(\begin{pmatrix} c_j \\ 0 \end{pmatrix}\) où \(c_j\) est la colonne \(j\) de \(A\)). Par unicité : \(\varphi(A) = \varphi(I_p) \cdot \det(A)\). Or \(\varphi(I_p) = \det\begin{pmatrix} I_p & B \\ 0 & D \end{pmatrix}\). En développant (ou par triangularisation), on montre que \(\varphi(I_p) = \det(D)\). D’où le résultat. ■
Piège classique : pour une matrice par blocs non triangulaire \(\begin{pmatrix} A & B \\ C & D \end{pmatrix}\), la formule \(\det(M) = \det(A)\det(D) – \det(B)\det(C)\) est fausse en général. Elle ne vaut qu’en dimension \(n = 2\) (avec des blocs 1×1, c’est-à-dire des scalaires).
C. Déterminant de Vandermonde
Le déterminant de Vandermonde est un grand classique des exercices et concours. Sa formule est à connaître et sa démonstration est un modèle de récurrence.
Théorème — Déterminant de Vandermonde
Pour \(x_1, \ldots, x_n \in \mathbb{K}\) :
\(V_n = \begin{vmatrix} 1 & x_1 & x_1^2 & \cdots & x_1^{n-1} \\ 1 & x_2 & x_2^2 & \cdots & x_2^{n-1} \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 1 & x_n & x_n^2 & \cdots & x_n^{n-1} \end{vmatrix} = \prod_{1 \leq i < j \leq n} (x_j – x_i)\)
Démonstration par récurrence ⋆
Initialisation : pour \(n = 2\), \(V_2 = \begin{vmatrix} 1 & x_1 \\ 1 & x_2 \end{vmatrix} = x_2 – x_1\). ✓
Hérédité : supposons la formule vraie au rang \(n – 1\). Effectuons les opérations \(C_j \leftarrow C_j – x_1 C_{j-1}\) pour \(j = n, n-1, \ldots, 2\) (ces opérations ne changent pas le déterminant). La première ligne devient \((1, 0, 0, \ldots, 0)\). Pour \(i \geq 2\), le coefficient de la ligne \(i\) en colonne \(j\) (\(j \geq 2\)) devient :
\(x_i^{j-1} – x_1 \cdot x_i^{j-2} = x_i^{j-2}(x_i – x_1)\)On développe selon la première ligne. Le seul terme non nul est celui de la colonne 1. On factorise \((x_i – x_1)\) dans chaque ligne \(i \geq 2\) :
\(V_n = \prod_{i=2}^{n} (x_i – x_1) \cdot V_{n-1}(x_2, \ldots, x_n)\)Par hypothèse de récurrence :
\(V_n = \prod_{i=2}^{n} (x_i – x_1) \cdot \prod_{2 \leq i < j \leq n} (x_j – x_i) = \prod_{1 \leq i < j \leq n} (x_j – x_i)\) ■
Conséquence : \(V_n \neq 0 \iff\) les \(x_i\) sont deux à deux distincts. Ce résultat intervient naturellement dans l’interpolation de Lagrange et la diagonalisation (distinction des valeurs propres).
V. Applications du déterminant
Au-delà du calcul pur, le déterminant intervient dans de nombreux résultats d’algèbre linéaire et d’analyse.
A. Formules de Cramer
Théorème — Formules de Cramer
Soit \(AX = B\) un système de Cramer (\(A \in \mathcal{M}_n(\mathbb{K})\) inversible, \(B \in \mathbb{K}^n\)). Pour tout \(j \in \{1, \ldots, n\}\) :
\(x_j = \displaystyle\frac{\det(A_j)}{\det(A)}\)
où \(A_j\) est la matrice obtenue en remplaçant la colonne \(j\) de \(A\) par \(B\).
Utilité pratique : les formules de Cramer sont surtout un outil théorique (elles prouvent l’existence et l’unicité de la solution, et montrent que celle-ci dépend continûment des données). Pour résoudre effectivement un système, le pivot de Gauss est beaucoup plus efficace.
B. Comatrice et calcul de l’inverse
La comatrice (ou matrice des cofacteurs) de \(A\) est la matrice \(\mathrm{Com}(A) = (C_{i,j})_{1 \leq i,j \leq n}\).
Théorème — Formule de la comatrice
Pour toute \(A \in \mathcal{M}_n(\mathbb{K})\) :
\(A \cdot {}^t\!\mathrm{Com}(A) = \det(A) \cdot I_n\)
En particulier, si \(A\) est inversible :
\(A^{-1} = \displaystyle\frac{1}{\det(A)} \cdot {}^t\!\mathrm{Com}(A)\)
Pour un traitement approfondi de la comatrice et de ses applications, consulte la page matrice adjointe. Pour les différentes méthodes de calcul de l’inverse, voir inverse d’une matrice.
C. Interprétation géométrique
C’est l’un des aspects les plus riches du déterminant, et pourtant l’un des moins traités en CPGE.
En dimension 2, si \(u = \begin{pmatrix} a \\ c \end{pmatrix}\) et \(v = \begin{pmatrix} b \\ d \end{pmatrix}\), alors :
\(\left|\det(u, v)\right| = |ad – bc| = \text{aire du parallélogramme engendré par } u \text{ et } v\)
En dimension 3, \(|\det(u, v, w)|\) donne le volume du parallélépipède engendré par les trois vecteurs.
En général, le signe du déterminant indique l’orientation : un déterminant positif signifie que la famille de vecteurs a la même orientation que la base canonique ; un déterminant négatif signifie une orientation inverse.
D. Jacobien et changement de variables
En analyse, le jacobien d’un changement de variables \(\varphi : U \to V\) est le déterminant de la matrice jacobienne \(J_\varphi = \left(\displaystyle\frac{\partial \varphi_i}{\partial x_j}\right)\). Il intervient dans la formule de changement de variables pour les intégrales multiples :
\(\int_V f(y)\,\mathrm{d}y = \int_U f(\varphi(x)) \cdot |\det(J_\varphi(x))|\,\mathrm{d}x\)C’est le lien naturel entre le déterminant et l’intégration — le facteur \(|\det(J_\varphi)|\) mesure le « facteur de dilatation locale » du changement de variables.
VI. Exercices corrigés
Voici 8 exercices classés par difficulté croissante, couvrant les méthodes et propriétés fondamentales. Les corrections sont détaillées pas à pas.
Exercice 1 (★) (I) — Développement selon une colonne
Calculer \(\det(A)\) avec \(A = \begin{pmatrix} 2 & 1 & 3 \\ 0 & -1 & 4 \\ 1 & 0 & 2 \end{pmatrix}\).
Voir la correction
La colonne 1 contient un zéro (coefficient \(a_{2,1} = 0\)). Développons selon \(C_1\) :
\(\det(A) = 2 \cdot (-1)^{1+1} \begin{vmatrix} -1 & 4 \\ 0 & 2 \end{vmatrix} + 0 + 1 \cdot (-1)^{3+1} \begin{vmatrix} 1 & 3 \\ -1 & 4 \end{vmatrix}\) \(= 2 \cdot (-2 – 0) + 1 \cdot (4 – (-3)) = 2 \times (-2) + 1 \times 7 = -4 + 7 = 3\)Donc \(\det(A) = 3\).
Exercice 2 (★) — Déterminant par blocs
Calculer le déterminant de \(M = \begin{pmatrix} 2 & 3 & 1 & 0 \\ 1 & 4 & 0 & 5 \\ 0 & 0 & 3 & -1 \\ 0 & 0 & 2 & 7 \end{pmatrix}\).
Voir la correction
La matrice \(M\) est triangulaire supérieure par blocs : \(M = \begin{pmatrix} A & B \\ 0 & D \end{pmatrix}\) avec \(A = \begin{pmatrix} 2 & 3 \\ 1 & 4 \end{pmatrix}\) et \(D = \begin{pmatrix} 3 & -1 \\ 2 & 7 \end{pmatrix}\).
Par le théorème du déterminant par blocs :
\(\det(M) = \det(A) \cdot \det(D) = (8 – 3)(21 + 2) = 5 \times 23 = 115\)Exercice 3 (★★) (I) — Triangularisation d’un déterminant 4×4
Calculer \(\begin{vmatrix} 1 & 2 & 3 & 4 \\ 2 & 3 & 4 & 1 \\ 3 & 4 & 1 & 2 \\ 4 & 1 & 2 & 3 \end{vmatrix}\).
Voir la correction
On effectue \(L_2 \leftarrow L_2 – 2L_1\), \(L_3 \leftarrow L_3 – 3L_1\), \(L_4 \leftarrow L_4 – 4L_1\) :
\(\begin{vmatrix} 1 & 2 & 3 & 4 \\ 0 & -1 & -2 & -7 \\ 0 & -2 & -8 & -10 \\ 0 & -7 & -10 & -13 \end{vmatrix}\)Puis \(L_3 \leftarrow L_3 – 2L_2\) et \(L_4 \leftarrow L_4 – 7L_2\) :
\(\begin{vmatrix} 1 & 2 & 3 & 4 \\ 0 & -1 & -2 & -7 \\ 0 & 0 & -4 & 4 \\ 0 & 0 & 4 & 36 \end{vmatrix}\)Enfin \(L_4 \leftarrow L_4 + L_3\) :
\(\begin{vmatrix} 1 & 2 & 3 & 4 \\ 0 & -1 & -2 & -7 \\ 0 & 0 & -4 & 4 \\ 0 & 0 & 0 & 40 \end{vmatrix}\)Aucun échange de lignes. Le déterminant est le produit des coefficients diagonaux :
\(\det = 1 \times (-1) \times (-4) \times 40 = 160\)8 exercices corrigés sur le déterminant en PDF
Tous les exercices de cette page avec leurs corrections détaillées, prêts à imprimer pour t’entraîner sur papier.
📄 Télécharger les exercices PDFParfait pour tes séances d’entraînement avant les DS et concours.
Exercice 4 (★★) — Déterminant paramétré et inversibilité
Déterminer les valeurs de \(\lambda \in \mathbb{R}\) pour lesquelles la matrice \(A = \begin{pmatrix} \lambda & 1 & 1 \\ 1 & \lambda & 1 \\ 1 & 1 & \lambda \end{pmatrix}\) n’est pas inversible.
Voir la correction
\(A\) n’est pas inversible si et seulement si \(\det(A) = 0\). Effectuons \(C_1 \leftarrow C_1 + C_2 + C_3\) :
\(\det(A) = \begin{vmatrix} \lambda + 2 & 1 & 1 \\ \lambda + 2 & \lambda & 1 \\ \lambda + 2 & 1 & \lambda \end{vmatrix}\)On factorise \((\lambda + 2)\) dans la première colonne :
\(\det(A) = (\lambda + 2) \begin{vmatrix} 1 & 1 & 1 \\ 1 & \lambda & 1 \\ 1 & 1 & \lambda \end{vmatrix}\)Puis \(L_2 \leftarrow L_2 – L_1\) et \(L_3 \leftarrow L_3 – L_1\) :
\(\det(A) = (\lambda + 2) \begin{vmatrix} 1 & 1 & 1 \\ 0 & \lambda – 1 & 0 \\ 0 & 0 & \lambda – 1 \end{vmatrix} = (\lambda + 2)(\lambda – 1)^2\)Donc \(\det(A) = 0 \iff \lambda = -2\) ou \(\lambda = 1\).
Remarque : les valeurs \(\lambda = -2\) et \(\lambda = 1\) sont les valeurs propres de la matrice \(J = \begin{pmatrix} 0 & 1 & 1 \\ 1 & 0 & 1 \\ 1 & 1 & 0 \end{pmatrix}\) (car \(A = \lambda I_3 – J\) à signe près). Le lien \(\det(A – \lambda I) = 0\) est le polynôme caractéristique.
Exercice 5 (★★) — Formules de Cramer
Résoudre le système suivant par les formules de Cramer :
\(\begin{cases} 2x + y – z = 3 \\ x – y + 2z = 1 \\ 3x + 2y + z = 4 \end{cases}\)Voir la correction
Calculons \(\det(A)\) avec \(A = \begin{pmatrix} 2 & 1 & -1 \\ 1 & -1 & 2 \\ 3 & 2 & 1 \end{pmatrix}\).
Développement selon \(L_1\) :
\(\det(A) = 2(-1-4) – 1(1-6) + (-1)(2+3) = -10 + 5 – 5 = -10\)Comme \(\det(A) = -10 \neq 0\), le système admet une solution unique.
\(\det(A_1) = \begin{vmatrix} 3 & 1 & -1 \\ 1 & -1 & 2 \\ 4 & 2 & 1 \end{vmatrix} = 3(-1-4) – 1(1-8) + (-1)(2+4) = -15 + 7 – 6 = -14\) \(\det(A_2) = \begin{vmatrix} 2 & 3 & -1 \\ 1 & 1 & 2 \\ 3 & 4 & 1 \end{vmatrix} = 2(1-8) – 3(1-6) + (-1)(4-3) = -14 + 15 – 1 = 0\) \(\det(A_3) = \begin{vmatrix} 2 & 1 & 3 \\ 1 & -1 & 1 \\ 3 & 2 & 4 \end{vmatrix} = 2(-4-2) – 1(4-3) + 3(2+3) = -12 – 1 + 15 = 2\)D’où : \(x = \displaystyle\frac{-14}{-10} = \displaystyle\frac{7}{5}\), \(y = \displaystyle\frac{0}{-10} = 0\), \(z = \displaystyle\frac{2}{-10} = -\displaystyle\frac{1}{5}\).
Exercice 6 (★★★) — Vandermonde en dimension 4
Calculer \(V = \begin{vmatrix} 1 & 1 & 1 & 1 \\ 1 & 2 & 3 & 4 \\ 1 & 4 & 9 & 16 \\ 1 & 8 & 27 & 64 \end{vmatrix}\).
Voir la correction
C’est le déterminant de Vandermonde \(V_4(1, 2, 3, 4)\). Par la formule :
\(V_4 = \prod_{1 \leq i < j \leq 4} (x_j – x_i)\)Énumérons tous les facteurs :
- \((x_2 – x_1) = 1\)
- \((x_3 – x_1) = 2\)
- \((x_4 – x_1) = 3\)
- \((x_3 – x_2) = 1\)
- \((x_4 – x_2) = 2\)
- \((x_4 – x_3) = 1\)
Donc \(V_4 = 1 \times 2 \times 3 \times 1 \times 2 \times 1 = 12\).
Vérification : on peut aussi effectuer les opérations \(C_j \leftarrow C_j – C_{j-1}\) pour \(j = 4, 3, 2\) et réduire à un Vandermonde de taille 3, ce qui confirme le résultat.
Exercice 7 (★★★) — Déterminant tridiagonal par récurrence
Soit \(D_n\) le déterminant de la matrice tridiagonale de taille \(n\) :
\(T_n = \begin{pmatrix} 2 & 1 & 0 & \cdots & 0 \\ 1 & 2 & 1 & \ddots & \vdots \\ 0 & 1 & 2 & \ddots & 0 \\ \vdots & \ddots & \ddots & \ddots & 1 \\ 0 & \cdots & 0 & 1 & 2 \end{pmatrix}\)1. Montrer que \(D_n = 2D_{n-1} – D_{n-2}\) pour \(n \geq 3\).
2. En déduire \(D_n\) pour tout \(n \geq 1\).
Voir la correction
1. Développons \(D_n\) selon la première colonne :
\(D_n = 2 \cdot M_{1,1} + 1 \cdot (-1)^{2+1} \cdot M_{2,1}\)Le mineur \(M_{1,1}\) est le déterminant de la sous-matrice tridiagonale de taille \(n-1\) (même structure), donc \(M_{1,1} = D_{n-1}\).
Le mineur \(M_{2,1}\) est le déterminant de la matrice obtenue en supprimant la ligne 2 et la colonne 1. Sa première ligne est \((1, 0, \ldots, 0)\) (car \(a_{1,2} = 1\) et \(a_{1,j} = 0\) pour \(j \geq 3\)). En développant selon cette première ligne : \(M_{2,1} = 1 \cdot D_{n-2}\).
D’où : \(D_n = 2D_{n-1} – D_{n-2}\).
2. Valeurs initiales : \(D_1 = 2\), \(D_2 = 2 \times 2 – 1 = 3\).
L’équation caractéristique de la récurrence \(D_n – 2D_{n-1} + D_{n-2} = 0\) est \(r^2 – 2r + 1 = 0\), soit \((r – 1)^2 = 0\). Racine double \(r = 1\).
La solution générale est \(D_n = (\alpha + \beta n) \cdot 1^n = \alpha + \beta n\).
Avec \(D_1 = 2 : \alpha + \beta = 2\) et \(D_2 = 3 : \alpha + 2\beta = 3\). D’où \(\beta = 1\), \(\alpha = 1\).
\(\fbox{D_n = n + 1}\)Vérification : \(D_3 = 2 \times 3 – 2 = 4 = 3 + 1\) ✓ ; \(D_4 = 2 \times 4 – 3 = 5 = 4 + 1\) ✓.
Exercice 8 (★★★) — Déterminant, trace et polynôme caractéristique (type concours)
Soit \(A \in \mathcal{M}_3(\mathbb{R})\) telle que \(\mathrm{tr}(A) = 6\), \(\mathrm{tr}(A^2) = 14\) et \(\det(A) = 6\).
1. Exprimer \(\mathrm{tr}(A^2)\) en fonction des valeurs propres \(\lambda_1, \lambda_2, \lambda_3\) de \(A\).
2. En déduire \(\lambda_1^2 + \lambda_2^2 + \lambda_3^2\), puis \(\lambda_1 \lambda_2 + \lambda_1 \lambda_3 + \lambda_2 \lambda_3\).
3. Déterminer le polynôme caractéristique de \(A\) et ses racines.
Voir la correction
1. La trace est la somme des valeurs propres (comptées avec multiplicité). Si \(A\) a pour valeurs propres \(\lambda_1, \lambda_2, \lambda_3\), alors \(A^2\) a pour valeurs propres \(\lambda_1^2, \lambda_2^2, \lambda_3^2\). Donc :
\(\mathrm{tr}(A^2) = \lambda_1^2 + \lambda_2^2 + \lambda_3^2 = 14\)2. On sait que \(\lambda_1 + \lambda_2 + \lambda_3 = \mathrm{tr}(A) = 6\). En élevant au carré :
\((\lambda_1 + \lambda_2 + \lambda_3)^2 = \lambda_1^2 + \lambda_2^2 + \lambda_3^2 + 2(\lambda_1\lambda_2 + \lambda_1\lambda_3 + \lambda_2\lambda_3)\) \(36 = 14 + 2(\lambda_1\lambda_2 + \lambda_1\lambda_3 + \lambda_2\lambda_3)\)D’où \(\lambda_1\lambda_2 + \lambda_1\lambda_3 + \lambda_2\lambda_3 = 11\).
3. Le polynôme caractéristique de \(A\) est \(\chi_A(X) = X^3 – s_1 X^2 + s_2 X – s_3\) où \(s_1 = \mathrm{tr}(A) = 6\), \(s_2 = 11\) et \(s_3 = \det(A) = 6\) (fonctions symétriques élémentaires).
\(\chi_A(X) = X^3 – 6X^2 + 11X – 6\)On cherche les racines. \(\chi_A(1) = 1 – 6 + 11 – 6 = 0\), donc \(X = 1\) est racine. Factorisation :
\(\chi_A(X) = (X – 1)(X^2 – 5X + 6) = (X – 1)(X – 2)(X – 3)\)Les valeurs propres de \(A\) sont \(\lambda_1 = 1\), \(\lambda_2 = 2\), \(\lambda_3 = 3\). On vérifie : \(\mathrm{tr}(A) = 6\) ✓, \(\det(A) = 6\) ✓, \(\mathrm{tr}(A^2) = 1 + 4 + 9 = 14\) ✓.
VII. Erreurs fréquentes et pièges classiques
Voici les erreurs les plus pénalisées en DS et en concours. Chaque piège est illustré par une copie fautive commentée.
Piège 1 — Oubli du signe dans le cofacteur
❌ Copie fautive : « On développe selon \(C_2\) : \(\det(A) = a_{1,2} M_{1,2} + a_{2,2} M_{2,2} + a_{3,2} M_{3,2}\) »
Diagnostic : le signe \((-1)^{i+j}\) a été oublié. Pour \(C_2\), les signes alternent : \(-, +, -, \ldots\)
✅ Correction : \(\det(A) = -a_{1,2} M_{1,2} + a_{2,2} M_{2,2} – a_{3,2} M_{3,2}\)
Piège 2 — Confusion entre multiplicativité et additivité
❌ Copie fautive : « \(\det(A + B) = \det(A) + \det(B)\) »
Diagnostic : le déterminant est un morphisme multiplicatif (\(\det(AB) = \det(A)\det(B)\)), pas additif. Il n’existe aucune formule simple pour \(\det(A+B)\).
✅ Contre-exemple : \(A = B = I_2\) : \(\det(A + B) = \det(2I_2) = 4\) mais \(\det(A) + \det(B) = 2\).
Piège 3 — Oubli de la puissance n dans \(\det(\lambda A)\)
❌ Copie fautive : « \(\det(3A) = 3\det(A)\) »
Diagnostic : le facteur \(\lambda\) sort de chacune des \(n\) colonnes, d’où la puissance \(n\).
✅ Correction : si \(A \in \mathcal{M}_n(\mathbb{K})\), \(\det(3A) = 3^n \det(A)\).
Piège 4 — Compteur d’échanges de lignes erroné
❌ Copie fautive : après deux échanges de lignes, l’étudiant écrit que le déterminant a changé de signe une fois.
Diagnostic : chaque échange multiplie par \(-1\). Deux échanges donnent \((-1)^2 = 1\) : le signe est inchangé.
✅ Règle : après \(s\) échanges de lignes, le déterminant est multiplié par \((-1)^s\).
Piège 5 — Déterminant par blocs non triangulaires
❌ Copie fautive : « \(\det\begin{pmatrix} A & B \\ C & D \end{pmatrix} = \det(A)\det(D) – \det(B)\det(C)\) »
Diagnostic : cette formule n’est valable qu’en dimension 1 (scalaires). Pour les blocs, la formule ne vaut que si la matrice est triangulaire par blocs (bloc \(C = 0\) ou \(B = 0\)).
VIII. Questions fréquentes
Comment trouver le déterminant d'une matrice ?
Trois méthodes principales :
- Formule directe pour les matrices 2×2 : \(\det = ad – bc\).
- Développement selon une ligne ou une colonne : choisir celle contenant le plus de zéros, puis appliquer la formule des cofacteurs.
- Triangularisation par Gauss : réduire la matrice sous forme triangulaire par opérations élémentaires (en comptant les échanges de lignes), puis prendre le produit des coefficients diagonaux.
Pour les matrices 3×3, la règle de Sarrus est aussi très rapide.
Pourquoi le déterminant d'une matrice est-il égal à 0 ?
Le déterminant est nul si et seulement si la matrice n’est pas inversible. Concrètement, cela signifie que les colonnes (ou les lignes) de la matrice sont linéairement dépendantes : l’une d’entre elles peut s’écrire comme combinaison linéaire des autres. Géométriquement, les vecteurs colonnes sont « aplatis » dans un sous-espace de dimension inférieure (le parallélépipède qu’ils forment a un volume nul).
Quelle est la différence entre déterminant et trace d'une matrice ?
La trace \(\mathrm{tr}(A)\) est la somme des coefficients diagonaux (ou des valeurs propres). Le déterminant \(\det(A)\) est le produit des valeurs propres (comptées avec multiplicité). La trace est un invariant additif (\(\mathrm{tr}(A + B) = \mathrm{tr}(A) + \mathrm{tr}(B)\)), tandis que le déterminant est multiplicatif (\(\det(AB) = \det(A)\det(B)\)). Les deux sont des invariants de similitude et interviennent dans le polynôme caractéristique.
Le déterminant change-t-il quand on transpose une matrice ?
Non. Le théorème \(\det({}^tA) = \det(A)\) garantit que la transposition ne modifie pas le déterminant. C’est pour cette raison que toutes les propriétés valables pour les colonnes (multilinéarité, effet des opérations élémentaires) s’appliquent aussi aux lignes. Voir la page transposée d’une matrice.
Comment calculer rapidement un déterminant 3×3 ?
La méthode la plus rapide est la règle de Sarrus : on recopie les deux premières colonnes à droite de la matrice, puis on calcule la somme des produits des trois diagonales descendantes moins la somme des produits des trois diagonales montantes. Consulte la page déterminant d’une matrice 3×3 pour un traitement détaillé avec schéma visuel.
À quoi sert le déterminant en dehors des mathématiques pures ?
Le déterminant intervient en physique (jacobien dans les changements de variables, tenseur métrique en relativité générale), en informatique graphique (transformations géométriques, test d’orientation d’un triangle), en statistique (matrice de covariance, vraisemblance de distributions gaussiennes multivariées), et en cryptographie (inversibilité de matrices dans les codes correcteurs d’erreurs).
IX. Pour aller plus loin
Tu maîtrises maintenant les définitions, propriétés et méthodes de calcul du déterminant. Voici les prolongements naturels :
- Déterminant d’une matrice 3×3 : règle de Sarrus et cofacteurs — techniques de calcul spécifiques au cas 3×3
- Déterminant d’une matrice 4×4 : développement par cofacteurs — extension au cas 4×4 et au-delà
- Matrice inversible : définition, critères et déterminant — tous les critères d’inversibilité
- Inverse d’une matrice : méthode de calcul et propriétés — calcul de \(A^{-1}\) par la comatrice ou Gauss-Jordan
- Valeurs propres et vecteurs propres — le lien \(\det(A – \lambda I) = 0\) et le polynôme caractéristique
- Diagonalisation d’une matrice — utiliser les valeurs propres pour diagonaliser
- Rang d’une matrice — lien \(\mathrm{rg}(A) = n \iff \det(A) \neq 0\)
- Exercices corrigés sur les matrices — entraînement transversal sur tout le chapitre