Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec le niveau d’exigence attendu en classe préparatoire. Découvrir le professeur

L’élimination de Gauss possède une traduction matricielle puissante : la factorisation LU. Écrire une matrice en algèbre linéaire sous la forme \(A = LU\) — produit de deux matrices triangulaires — permet de résoudre des systèmes linéaires à moindre coût. Tu trouveras ici le cours complet : définition, conditions d’existence avec démonstration, méthode pas à pas illustrée sur des exemples 3×3, et exercices corrigés gradués. Conforme au programme de CPGE scientifique 2025-2026.

I. Rappels et définition formelle

A. Le pivot de Gauss — rappel

L’élimination de Gauss consiste à transformer une matrice \(A \in M_n(\mathbb{K})\) en une matrice triangulaire supérieure \(U\) par des opérations élémentaires sur les lignes. À chaque étape, on élimine les coefficients sous le pivot courant.

Concrètement, pour chaque colonne \(j \in \{1, \ldots, n-1\}\), on effectue les opérations suivantes :

  • On identifie le pivot \(a_{jj}^{(j)} \neq 0\) (le coefficient diagonal à l’étape \(j\)).
  • Pour chaque ligne \(i\) > \(j\), on calcule le multiplicateur \(\ell_{ij} = \displaystyle\frac{a_{ij}^{(j)}}{a_{jj}^{(j)}}\).
  • On remplace \(R_i\) par \(R_i – \ell_{ij} R_j\), ce qui annule le coefficient en position \((i,j)\).

Au terme de l’élimination, on obtient une matrice triangulaire supérieure \(U\). L’idée centrale de la factorisation de Gauss est de mémoriser les multiplicateurs \(\ell_{ij}\) utilisés pendant l’élimination : ils forment la matrice \(L\).

Les étapes du pivot de Gauss sur une matrice 3×3 : étape 0 matrice A initiale avec pivot doré, étape 1 colonne 1 éliminée avec zéros verts et coefficients modifiés, étape 2 matrice U triangulaire supérieure obtenue avec les trois pivots sur la diagonale

B. Définition de la décomposition LU

Définition — Décomposition LU (factorisation de Gauss)

Soit \(A \in M_n(\mathbb{K})\). On dit que \(A\) admet une décomposition LU s’il existe :

  • une matrice \(L \in M_n(\mathbb{K})\) triangulaire inférieure à diagonale unité (c’est-à-dire \(\ell_{ii} = 1\) pour tout \(i\)),
  • une matrice \(U \in M_n(\mathbb{K})\) triangulaire supérieure,

telles que \(A = LU\).

La lettre \(L\) vient de lower (triangulaire inférieure) et \(U\) de upper (triangulaire supérieure). Les termes « factorisation LU », « décomposition LU » et « factorisation de Gauss » désignent la même opération.

Schéma de la factorisation A = L·U avec la matrice A à gauche, la matrice L triangulaire inférieure (diagonale de 1, multiplicateurs dorés en dessous) et la matrice U triangulaire supérieure (pivots verts sur la diagonale)

Voici un premier exemple sur une matrice \(2 \times 2\) pour fixer les idées. Soit :

\(A = \begin{pmatrix} 3 & 1 \\ 6 & 5 \end{pmatrix}\)

L’élimination de Gauss donne le multiplicateur \(\ell_{21} = \displaystyle\frac{6}{3} = 2\), puis \(R_2 \leftarrow R_2 – 2R_1\) produit :

\(U = \begin{pmatrix} 3 & 1 \\ 0 & 3 \end{pmatrix}, \quad L = \begin{pmatrix} 1 & 0 \\ 2 & 1 \end{pmatrix}\)

On vérifie immédiatement \(LU = \begin{pmatrix} 3 & 1 \\ 6 & 5 \end{pmatrix} = A\).

C. Construction de L par les matrices de transvection

La raison profonde pour laquelle les multiplicateurs « se rangent » directement dans \(L\) repose sur les matrices élémentaires de transvection. Chaque opération \(R_i \leftarrow R_i – \ell_{ij} R_j\) revient à multiplier à gauche par la matrice :

\(E_{ij}(\lambda) = I_n + \lambda \, e_{ij}\)

où \(e_{ij}\) est la matrice dont le seul coefficient non nul vaut \(1\) en position \((i,j)\). Chaque \(E_{ij}(\lambda)\) est triangulaire inférieure à diagonale unité, et son inverse est simplement \(E_{ij}(-\lambda)\).

L’élimination complète de Gauss s’écrit alors :

\(\underbrace{E_{n,n-1}(-\ell_{n,n-1}) \cdots E_{32}(-\ell_{32})}_{\text{colonne } 2} \cdots \underbrace{E_{n1}(-\ell_{n1}) \cdots E_{21}(-\ell_{21})}_{\text{colonne } 1} \times A = U\)

En inversant, on obtient \(A = LU\) avec :

\(L = E_{21}(\ell_{21}) \cdots E_{n1}(\ell_{n1}) \times E_{32}(\ell_{32}) \cdots E_{n,n-1}(\ell_{n,n-1})\)

Pourquoi les multiplicateurs se rangent directement dans L

Les matrices \(E_{ij}(\ell_{ij})\) apparaissant dans le produit ci-dessus ont leurs coefficients non triviaux dans des positions distinctes (sous la diagonale). Leur produit se calcule sans « interaction » entre les termes : chaque multiplicateur \(\ell_{ij}\) prend simplement sa place en position \((i,j)\) de \(L\).

Autrement dit, pour \(n = 3\) :

\(L = E_{21}(\ell_{21}) \times E_{31}(\ell_{31}) \times E_{32}(\ell_{32}) = \begin{pmatrix} 1 & 0 & 0 \\ \ell_{21} & 1 & 0 \\ \ell_{31} & \ell_{32} & 1 \end{pmatrix}\)

Il suffit de stocker les multiplicateurs au fur et à mesure — aucun calcul supplémentaire n’est nécessaire pour construire \(L\).


II. Conditions d’existence, unicité et propriétés

La factorisation LU n’existe pas toujours : il faut que l’élimination de Gauss puisse s’effectuer sans permutation de lignes. La condition nécessaire et suffisante porte sur les mineurs principaux dominants de la matrice.

A. Théorème d’existence — le rôle des mineurs principaux

Pour \(k \in \{1, \ldots, n\}\), on note \(A_k\) la sous-matrice formée des \(k\) premières lignes et \(k\) premières colonnes de \(A\), et \(\Delta_k = \det(A_k)\) le mineur principal dominant d’ordre \(k\) (avec la convention \(\Delta_0 = 1\)).

Théorème — Existence de la décomposition LU

Soit \(A \in M_n(\mathbb{K})\). La matrice \(A\) admet une décomposition \(A = LU\) si et seulement si :

\(\forall k \in \{1, \ldots, n-1\}, \quad \Delta_k \neq 0\)

c’est-à-dire si tous les mineurs principaux dominants d’ordre \(1\) à \(n-1\) sont non nuls.

Les 4 mineurs principaux d'une matrice 4×4 : Δ₁ bloc 1×1 en or, Δ₂ bloc 2×2 en vert, Δ₃ bloc 3×3 en bleu, Δ₄ bloc 4×4 en rouge, emboîtés dans le coin supérieur-gauche de la matrice

Remarque importante : la condition ne porte pas sur \(\Delta_n = \det(A)\). Une matrice singulière peut admettre une décomposition LU, à condition que ses \(n-1\) premiers mineurs soient non nuls (le dernier pivot \(u_{nn}\) peut valoir \(0\)).

B. Démonstration ⋆

Démonstration ⋆ (exigible au concours)

Sens direct (\(\Rightarrow\)). Supposons \(A = LU\). Pour tout \(k \in \{1, \ldots, n-1\}\), la sous-matrice \(A_k = L_k U_k\) où \(L_k\) et \(U_k\) sont les sous-matrices \(k \times k\) correspondantes. Puisque \(L_k\) est triangulaire inférieure à diagonale unité, \(\det(L_k) = 1\). Donc :

\(\Delta_k = \det(A_k) = \det(L_k) \det(U_k) = \prod_{i=1}^{k} u_{ii}\)

Pour que l’élimination de Gauss ait fonctionné sans permutation, chaque pivot \(u_{jj}\) devait être non nul pour \(j \in \{1, \ldots, n-1\}\) (le pivot à l’étape \(j\) est nécessaire pour calculer les multiplicateurs \(\ell_{ij}\)). Ainsi \(\Delta_k = u_{11} \cdots u_{kk} \neq 0\) pour \(k \in \{1, \ldots, n-1\}\).

Sens réciproque (\(\Leftarrow\)). Supposons \(\Delta_k \neq 0\) pour tout \(k \in \{1, \ldots, n-1\}\). On montre par récurrence sur \(j\) que le pivot à l’étape \(j\) de l’élimination de Gauss est non nul.

À l’étape \(j\), le pivot vaut :

\(u_{jj} = \displaystyle\frac{\Delta_j}{\Delta_{j-1}}\)

En effet, \(\Delta_j = u_{11} \cdots u_{jj}\) et \(\Delta_{j-1} = u_{11} \cdots u_{j-1,j-1}\), d’où par quotient \(u_{jj} = \Delta_j / \Delta_{j-1}\). Puisque \(\Delta_j \neq 0\) et \(\Delta_{j-1} \neq 0\) pour \(j \in \{1, \ldots, n-1\}\), le pivot \(u_{jj} \neq 0\). L’élimination peut donc s’effectuer sans permutation à chaque étape, ce qui produit \(A = LU\).

Formule clé — Pivot et mineur principal

Le \(k\)-ième pivot de l’élimination de Gauss est lié aux mineurs principaux par :

\(u_{kk} = \displaystyle\frac{\Delta_k}{\Delta_{k-1}} \qquad (\text{avec } \Delta_0 = 1)\)

Cette formule traduit concrètement la condition d’existence : les mineurs non nuls garantissent des pivots non nuls. Elle permet aussi de calculer les pivots sans effectuer l’élimination.

C. Unicité de la décomposition

Théorème — Unicité

Si \(A \in \mathrm{GL}_n(\mathbb{K})\) admet une décomposition LU, alors celle-ci est unique.

Démonstration

Supposons \(A = L_1 U_1 = L_2 U_2\) avec \(A\) inversible. Alors \(L_2^{-1} L_1 = U_2 U_1^{-1}\).

Le membre de gauche est un produit de matrices triangulaires inférieures à diagonale unité : c’est donc une matrice triangulaire inférieure à diagonale unité.

Le membre de droite est un produit de matrices triangulaires supérieures (inversibles) : c’est donc une matrice triangulaire supérieure.

Une matrice à la fois triangulaire inférieure et triangulaire supérieure est diagonale. Et puisque la diagonale du membre de gauche ne contient que des \(1\), on conclut \(L_2^{-1} L_1 = I_n\), soit \(L_1 = L_2\) et \(U_1 = U_2\).

D. Factorisation PA = LU avec matrice de permutation

Lorsque les mineurs principaux ne sont pas tous non nuls, l’élimination de Gauss nécessite des permutations de lignes pour éviter les pivots nuls. On encode ces permutations dans une matrice de permutation \(P\) (matrice obtenue en permutant les lignes de \(I_n\)).

Théorème — Factorisation PA = LU

Pour toute matrice \(A \in \mathrm{GL}_n(\mathbb{K})\), il existe une matrice de permutation \(P\), une matrice triangulaire inférieure \(L\) à diagonale unité et une matrice triangulaire supérieure inversible \(U\) telles que :

\(PA = LU\)

La matrice \(P\) encode l’ensemble des échanges de lignes effectués pendant l’élimination. Si aucun échange n’est nécessaire, \(P = I_n\) et on retrouve la factorisation \(A = LU\) standard.

Piège classique — Pivot nul

Si le pivot \(a_{jj}^{(j)}\) est nul à l’étape \(j\), il est impossible de poursuivre l’élimination sans permuter. C’est la cause la plus fréquente d’erreur en DS : ne pas détecter un pivot nul et diviser par \(0\) dans le calcul des multiplicateurs.

Réflexe : avant de calculer \(\ell_{ij} = a_{ij}/a_{jj}\), vérifier que \(a_{jj} \neq 0\). Sinon, permuter avec une ligne \(k\) > \(j\) telle que \(a_{kj} \neq 0\).

E. Liens avec le déterminant et le rang

La factorisation LU fournit un accès direct à deux invariants fondamentaux de la matrice.

Propriété — Déterminant via LU

Si \(A = LU\), alors :

\(\det(A) = \det(L) \cdot \det(U) = 1 \times \prod_{i=1}^{n} u_{ii} = \prod_{i=1}^{n} u_{ii}\)

Le déterminant de \(A\) est le produit des pivots.

Si \(PA = LU\), alors \(\det(A) = \det(P)^{-1} \prod_{i=1}^{n} u_{ii} = (-1)^s \prod_{i=1}^{n} u_{ii}\) où \(s\) est le nombre de transpositions dans \(P\).

De même, le rang de la matrice se lit directement sur \(U\) : c’est le nombre de pivots non nuls (coefficients diagonaux non nuls de \(U\)).

Ces propriétés font de la factorisation LU un outil central : un seul algorithme donne accès au déterminant, au rang, à l’inverse et à la résolution de systèmes.

🎁 EN BONUS

Fiche de synthèse — Factorisation de Gauss (LU)

Définitions, théorèmes d’existence et d’unicité, méthode en 4 étapes et formules clés sur une seule page recto-verso.

📄 Télécharger la fiche PDF

Idéal pour réviser avant un DS ou un concours — tout l’essentiel en un coup d’œil.


III. Méthode pas à pas en 4 étapes

Voici la procédure systématique pour obtenir la factorisation \(A = LU\) (ou \(PA = LU\) si nécessaire).

A. Les 4 étapes

Méthode — Factorisation LU en 4 étapes

  1. Vérifier l’existence. Calculer les mineurs principaux \(\Delta_1, \ldots, \Delta_{n-1}\). Si l’un est nul, passer à la factorisation \(PA = LU\).
  2. Effectuer l’élimination de Gauss. Pour chaque colonne \(j = 1, \ldots, n-1\), calculer les multiplicateurs \(\ell_{ij} = a_{ij}^{(j)} / a_{jj}^{(j)}\) et appliquer \(R_i \leftarrow R_i – \ell_{ij} R_j\) pour tout \(i\) > \(j\).
  3. Construire L et U. \(U\) est la matrice triangulaire supérieure obtenue. \(L\) est la matrice avec des \(1\) sur la diagonale et les multiplicateurs \(\ell_{ij}\) aux positions correspondantes.
  4. Vérifier. Calculer le produit \(LU\) et s’assurer qu’on retrouve \(A\).

B. Exemple résolu — Matrice 3×3

Exemple — Factorisation LU d’une matrice 3×3

Soit \(A = \begin{pmatrix} 1 & 2 & 1 \\ 3 & 8 & 5 \\ 2 & 6 & 5 \end{pmatrix}\). Calculons sa décomposition LU.

Étape 1 — Vérification.

\(\Delta_1 = 1 \neq 0\), \(\Delta_2 = \det \begin{pmatrix} 1 & 2 \\ 3 & 8 \end{pmatrix} = 8 – 6 = 2 \neq 0\).

Les deux mineurs principaux sont non nuls : la décomposition LU existe.

Étape 2 — Élimination, colonne 1.

Multiplicateurs : \(\ell_{21} = \displaystyle\frac{3}{1} = 3\), \(\ell_{31} = \displaystyle\frac{2}{1} = 2\).

\(R_2 \leftarrow R_2 – 3R_1 : \quad (0, \; 8-6, \; 5-3) = (0, \; 2, \; 2)\)
\(R_3 \leftarrow R_3 – 2R_1 : \quad (0, \; 6-4, \; 5-2) = (0, \; 2, \; 3)\)

Élimination, colonne 2.

Multiplicateur : \(\ell_{32} = \displaystyle\frac{2}{2} = 1\).

\(R_3 \leftarrow R_3 – 1 \cdot R_2 : \quad (0, \; 0, \; 3-2) = (0, \; 0, \; 1)\)

Étape 3 — Construction de L et U.

\(L = \begin{pmatrix} 1 & 0 & 0 \\ 3 & 1 & 0 \\ 2 & 1 & 1 \end{pmatrix}, \quad U = \begin{pmatrix} 1 & 2 & 1 \\ 0 & 2 & 2 \\ 0 & 0 & 1 \end{pmatrix}\)

Étape 4 — Vérification.

\(LU = \begin{pmatrix} 1 & 2 & 1 \\ 3 & 6+2 & 3+2 \\ 2 & 4+2 & 2+2+1 \end{pmatrix} = \begin{pmatrix} 1 & 2 & 1 \\ 3 & 8 & 5 \\ 2 & 6 & 5 \end{pmatrix} = A \quad \text{✓}\)

On lit immédiatement \(\det(A) = 1 \times 2 \times 1 = 2\).

C. Exemple résolu — Factorisation PA = LU

Exemple — Factorisation PA = LU (pivot nul)

Soit \(A = \begin{pmatrix} 0 & 1 & 2 \\ 1 & 3 & 1 \\ 2 & 1 & 3 \end{pmatrix}\).

Constat. Le mineur \(\Delta_1 = a_{11} = 0\). La décomposition LU n’existe pas : il faut une permutation.

Permutation. On échange \(R_1\) et \(R_2\) (on choisit la première ligne non nulle en colonne 1). La matrice de permutation est \(P = \begin{pmatrix} 0 & 1 & 0 \\ 1 & 0 & 0 \\ 0 & 0 & 1 \end{pmatrix}\).

\(PA = \begin{pmatrix} 1 & 3 & 1 \\ 0 & 1 & 2 \\ 2 & 1 & 3 \end{pmatrix}\)

Élimination, colonne 1. Le coefficient \((2,1)\) est déjà nul (\(\ell_{21} = 0\)). Multiplicateur : \(\ell_{31} = \displaystyle\frac{2}{1} = 2\).

\(R_3 \leftarrow R_3 – 2R_1 : \quad (0, \; 1-6, \; 3-2) = (0, \; -5, \; 1)\)

Élimination, colonne 2. Multiplicateur : \(\ell_{32} = \displaystyle\frac{-5}{1} = -5\).

\(R_3 \leftarrow R_3 – (-5)R_2 = R_3 + 5R_2 : \quad (0, \; 0, \; 1+10) = (0, \; 0, \; 11)\)

Résultat.

\(L = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 2 & -5 & 1 \end{pmatrix}, \quad U = \begin{pmatrix} 1 & 3 & 1 \\ 0 & 1 & 2 \\ 0 & 0 & 11 \end{pmatrix}\)

Vérification.

\(LU = \begin{pmatrix} 1 & 3 & 1 \\ 0 & 1 & 2 \\ 2 & 6-5 & 2-10+11 \end{pmatrix} = \begin{pmatrix} 1 & 3 & 1 \\ 0 & 1 & 2 \\ 2 & 1 & 3 \end{pmatrix} = PA \quad \text{✓}\)

Logo-excellence-maths
Tu veux progresser rapidement en maths sup ou spé ?
Cours particuliers avec un professeur diplômé de Polytechnique. Programme personnalisé, méthodes rigoureuses et résultats visibles dès les premières semaines.

IV. Application à la résolution de systèmes linéaires

La factorisation LU prend toute sa puissance lorsqu’il s’agit de résoudre des systèmes linéaires. Elle transforme un problème de coût \(\mathcal{O}(n^3)\) en deux résolutions triangulaires de coût \(\mathcal{O}(n^2)\) chacune.

A. Principe de la descente-remontée

Le système \(Ax = b\), avec \(A = LU\), devient \(LUx = b\). On le résout en deux temps :

  1. Descente (forward substitution) : résoudre \(Ly = b\). Comme \(L\) est triangulaire inférieure, on calcule \(y_1, y_2, \ldots, y_n\) par substitution progressive.
  2. Remontée (backward substitution) : résoudre \(Ux = y\). Comme \(U\) est triangulaire supérieure, on calcule \(x_n, x_{n-1}, \ldots, x_1\) par substitution rétrograde.

Intérêt algorithmique

La factorisation elle-même coûte \(\mathcal{O}\!\left(\displaystyle\frac{2n^3}{3}\right)\) opérations. Mais une fois \(L\) et \(U\) calculées, chaque nouveau second membre \(b\) ne coûte que \(\mathcal{O}(n^2)\). Si tu dois résoudre \(Ax = b_1, Ax = b_2, \ldots, Ax = b_p\) avec la même matrice \(A\), la factorisation LU est bien plus efficace que \(p\) éliminations de Gauss complètes.

B. Exemple résolu

Exemple — Résolution par descente-remontée

On utilise la factorisation \(A = LU\) obtenue à la section III.B :

\(L = \begin{pmatrix} 1 & 0 & 0 \\ 3 & 1 & 0 \\ 2 & 1 & 1 \end{pmatrix}, \quad U = \begin{pmatrix} 1 & 2 & 1 \\ 0 & 2 & 2 \\ 0 & 0 & 1 \end{pmatrix}\)

On résout \(Ax = b\) avec \(b = \begin{pmatrix} 7 \\ 23 \\ 22 \end{pmatrix}\).

Descente : \(Ly = b\).

  • \(y_1 = 7\)
  • \(3 \times 7 + y_2 = 23 \Rightarrow y_2 = 2\)
  • \(2 \times 7 + 2 + y_3 = 22 \Rightarrow y_3 = 6\)

Soit \(y = \begin{pmatrix} 7 \\ 2 \\ 6 \end{pmatrix}\).

Remontée : \(Ux = y\).

  • \(x_3 = 6\)
  • \(2x_2 + 2 \times 6 = 2 \Rightarrow x_2 = -5\)
  • \(x_1 + 2 \times (-5) + 6 = 7 \Rightarrow x_1 = 11\)

D’où \(x = \begin{pmatrix} 11 \\ -5 \\ 6 \end{pmatrix}\).

Vérification : \(Ax = \begin{pmatrix} 11 – 10 + 6 \\ 33 – 40 + 30 \\ 22 – 30 + 30 \end{pmatrix} = \begin{pmatrix} 7 \\ 23 \\ 22 \end{pmatrix} = b \quad \text{✓}\)

C. Panorama des factorisations matricielles

La factorisation LU n’est pas la seule décomposition matricielle. Voici un panorama des principales factorisations et de leurs domaines d’application.

Comparaison des factorisations matricielles
Factorisation Hypothèse sur \(A\) Coût Usage principal
\(A = LU\) \(\Delta_1, \ldots, \Delta_{n-1} \neq 0\) \(\mathcal{O}\!\left(\displaystyle\frac{2n^3}{3}\right)\) Systèmes multiples, même \(A\)
\(PA = LU\) \(A \in \mathrm{GL}_n(\mathbb{K})\) \(\mathcal{O}\!\left(\displaystyle\frac{2n^3}{3}\right)\) Cas général (avec pivotage partiel)
\(A = LL^\top\) (Cholesky) \(A\) symétrique déf. pos. \(\mathcal{O}\!\left(\displaystyle\frac{n^3}{3}\right)\) Matrices sym. déf. pos. (deux fois plus rapide)
\(A = QR\) Aucune \(\mathcal{O}(2n^3)\) Moindres carrés, valeurs propres

Retiens que la factorisation LU est le choix standard lorsqu’aucune structure particulière n’est connue. La factorisation de Cholesky, spécifique aux matrices symétriques définies positives, est deux fois plus rapide et numériquement plus stable.


V. Exercices corrigés

Voici 6 exercices classés par difficulté croissante (★ à ★★★) pour t’entraîner. Chaque correction est détaillée pas à pas.

Exercice 1 ★ — Factorisation LU d’une matrice 2×2

Calculer la décomposition LU de \(A = \begin{pmatrix} 3 & 1 \\ 6 & 5 \end{pmatrix}\).

Voir la correction

Le mineur \(\Delta_1 = 3 \neq 0\) : la décomposition existe.

Multiplicateur : \(\ell_{21} = \displaystyle\frac{6}{3} = 2\).

\(R_2 \leftarrow R_2 – 2R_1 = (0, \; 5-2) = (0, \; 3)\).

Donc :

\(L = \begin{pmatrix} 1 & 0 \\ 2 & 1 \end{pmatrix}, \quad U = \begin{pmatrix} 3 & 1 \\ 0 & 3 \end{pmatrix}\)

Vérification : \(LU = \begin{pmatrix} 3 & 1 \\ 6 & 2+3 \end{pmatrix} = \begin{pmatrix} 3 & 1 \\ 6 & 5 \end{pmatrix} = A \quad \text{✓}\)


Exercice 2 ★★ — Factorisation LU d’une matrice 3×3

Calculer la décomposition LU de \(A = \begin{pmatrix} 1 & 1 & 1 \\ 2 & 3 & 5 \\ 4 & 6 & 8 \end{pmatrix}\).

Voir la correction

Vérification des mineurs : \(\Delta_1 = 1 \neq 0\), \(\Delta_2 = 3 – 2 = 1 \neq 0\). La décomposition existe.

Colonne 1. \(\ell_{21} = 2\), \(\ell_{31} = 4\).

\(R_2 \leftarrow R_2 – 2R_1 = (0, \; 1, \; 3)\) \(R_3 \leftarrow R_3 – 4R_1 = (0, \; 2, \; 4)\)

Colonne 2. \(\ell_{32} = \displaystyle\frac{2}{1} = 2\).

\(R_3 \leftarrow R_3 – 2R_2 = (0, \; 0, \; 4-6) = (0, \; 0, \; -2)\)

Résultat :

\(L = \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0 \\ 4 & 2 & 1 \end{pmatrix}, \quad U = \begin{pmatrix} 1 & 1 & 1 \\ 0 & 1 & 3 \\ 0 & 0 & -2 \end{pmatrix}\)

Vérification :

\(LU = \begin{pmatrix} 1 & 1 & 1 \\ 2 & 2+1 & 2+3 \\ 4 & 4+2 & 4+6-2 \end{pmatrix} = \begin{pmatrix} 1 & 1 & 1 \\ 2 & 3 & 5 \\ 4 & 6 & 8 \end{pmatrix} = A \quad \text{✓}\)

On en déduit \(\det(A) = 1 \times 1 \times (-2) = -2\).


Exercice 3 ★★ — Existence de la décomposition LU

La matrice \(A = \begin{pmatrix} 1 & 2 & 3 \\ 2 & 4 & 5 \\ 1 & 3 & 4 \end{pmatrix}\) admet-elle une décomposition LU ? Justifier.

Voir la correction

On calcule les mineurs principaux dominants.

\(\Delta_1 = 1 \neq 0\).

\(\Delta_2 = \det \begin{pmatrix} 1 & 2 \\ 2 & 4 \end{pmatrix} = 4 – 4 = 0\).

Puisque \(\Delta_2 = 0\), la condition d’existence n’est pas satisfaite.

Confirmation algorithmique : effectuons le début de l’élimination.

\(\ell_{21} = 2, \quad R_2 \leftarrow R_2 – 2R_1 = (0, \; 0, \; -1)\) \(\ell_{31} = 1, \quad R_3 \leftarrow R_3 – R_1 = (0, \; 1, \; 1)\)

Le pivot en position \((2,2)\) est nul : l’élimination est bloquée sans permutation. La matrice \(A\) n’admet pas de décomposition LU.

En revanche, la factorisation \(PA = LU\) existe (cf. théorème de la section II.D).


Exercice 4 ★★ — Factorisation PA = LU

Déterminer une factorisation \(PA = LU\) pour \(A = \begin{pmatrix} 0 & 1 & 1 \\ 1 & 2 & 3 \\ 3 & 5 & 4 \end{pmatrix}\).

Voir la correction

\(\Delta_1 = a_{11} = 0\) : la décomposition LU directe n’existe pas.

Permutation : on échange \(R_1\) et \(R_2\) pour obtenir un pivot non nul en position \((1,1)\).

\(P = \begin{pmatrix} 0 & 1 & 0 \\ 1 & 0 & 0 \\ 0 & 0 & 1 \end{pmatrix}, \quad PA = \begin{pmatrix} 1 & 2 & 3 \\ 0 & 1 & 1 \\ 3 & 5 & 4 \end{pmatrix}\)

Colonne 1. \(\ell_{21} = 0\) (déjà nul), \(\ell_{31} = 3\).

\(R_3 \leftarrow R_3 – 3R_1 = (0, \; -1, \; -5)\)

Colonne 2. \(\ell_{32} = \displaystyle\frac{-1}{1} = -1\).

\(R_3 \leftarrow R_3 + R_2 = (0, \; 0, \; -4)\)

Résultat :

\(L = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 3 & -1 & 1 \end{pmatrix}, \quad U = \begin{pmatrix} 1 & 2 & 3 \\ 0 & 1 & 1 \\ 0 & 0 & -4 \end{pmatrix}\)

Vérification :

\(LU = \begin{pmatrix} 1 & 2 & 3 \\ 0 & 1 & 1 \\ 3 & 6-1 & 9-1-4 \end{pmatrix} = \begin{pmatrix} 1 & 2 & 3 \\ 0 & 1 & 1 \\ 3 & 5 & 4 \end{pmatrix} = PA \quad \text{✓}\)

Exercice 5 ★★ — Résolution d’un système par factorisation LU

En utilisant la factorisation LU obtenue à l’exercice 2, résoudre le système \(Ax = b\) avec \(b = \begin{pmatrix} 2 \\ 3 \\ 8 \end{pmatrix}\).

Voir la correction

On a \(L = \begin{pmatrix} 1 & 0 & 0 \\ 2 & 1 & 0 \\ 4 & 2 & 1 \end{pmatrix}\) et \(U = \begin{pmatrix} 1 & 1 & 1 \\ 0 & 1 & 3 \\ 0 & 0 & -2 \end{pmatrix}\).

Descente : \(Ly = b\).

  • \(y_1 = 2\)
  • \(2 \times 2 + y_2 = 3 \Rightarrow y_2 = -1\)
  • \(4 \times 2 + 2 \times (-1) + y_3 = 8 \Rightarrow y_3 = 2\)

Remontée : \(Ux = y\).

  • \(-2x_3 = 2 \Rightarrow x_3 = -1\)
  • \(x_2 + 3 \times (-1) = -1 \Rightarrow x_2 = 2\)
  • \(x_1 + 2 + (-1) = 2 \Rightarrow x_1 = 1\)
\(x = \begin{pmatrix} 1 \\ 2 \\ -1 \end{pmatrix}\)

Vérification : \(Ax = \begin{pmatrix} 1+2-1 \\ 2+6-5 \\ 4+12-8 \end{pmatrix} = \begin{pmatrix} 2 \\ 3 \\ 8 \end{pmatrix} = b \quad \text{✓}\)


Exercice 6 ★★★ — Factorisation LU avec paramètre

Soit \(a \in \mathbb{R}\) et \(A(a) = \begin{pmatrix} 1 & 1 & 0 \\ a & 2 & 1 \\ 0 & 1 & 1 \end{pmatrix}\).

  1. Pour quelles valeurs de \(a\) la matrice \(A(a)\) admet-elle une décomposition LU ?
  2. Effectuer la factorisation pour ces valeurs de \(a\).
  3. Pour la valeur de \(a\) exclue, déterminer une factorisation \(PA = LU\).
Voir la correction

1. Existence.

\(\Delta_1 = 1 \neq 0\) pour tout \(a\).

\(\Delta_2 = \det \begin{pmatrix} 1 & 1 \\ a & 2 \end{pmatrix} = 2 – a\).

Condition d’existence : \(\Delta_2 \neq 0 \Leftrightarrow a \neq 2\).

2. Factorisation LU pour \(a \neq 2\).

Colonne 1. \(\ell_{21} = a\), \(\ell_{31} = 0\).

\(R_2 \leftarrow R_2 – aR_1 = (0, \; 2-a, \; 1)\)

Colonne 2. \(\ell_{32} = \displaystyle\frac{1}{2-a}\).

\(R_3 \leftarrow R_3 – \displaystyle\frac{1}{2-a} R_2 = \left(0, \; 0, \; 1 – \displaystyle\frac{1}{2-a}\right) = \left(0, \; 0, \; \displaystyle\frac{1-a}{2-a}\right)\) \(L = \begin{pmatrix} 1 & 0 & 0 \\ a & 1 & 0 \\ 0 & \displaystyle\frac{1}{2-a} & 1 \end{pmatrix}, \quad U = \begin{pmatrix} 1 & 1 & 0 \\ 0 & 2-a & 1 \\ 0 & 0 & \displaystyle\frac{1-a}{2-a} \end{pmatrix}\)

On vérifie : \(\det(A) = 1 \times (2-a) \times \displaystyle\frac{1-a}{2-a} = 1-a\). La matrice est inversible si et seulement si \(a \neq 1\).

3. Cas \(a = 2\) : factorisation PA = LU.

\(A(2) = \begin{pmatrix} 1 & 1 & 0 \\ 2 & 2 & 1 \\ 0 & 1 & 1 \end{pmatrix}\)

Colonne 1. \(\ell_{21} = 2\), \(\ell_{31} = 0\).

\(R_2 \leftarrow R_2 – 2R_1 = (0, \; 0, \; 1)\)

Le pivot en position \((2,2)\) est nul. On permute \(R_2\) et \(R_3\) :

\(P = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 0 & 1 \\ 0 & 1 & 0 \end{pmatrix}\)

Après permutation : la matrice intermédiaire devient \(\begin{pmatrix} 1 & 1 & 0 \\ 0 & 1 & 1 \\ 0 & 0 & 1 \end{pmatrix}\), qui est déjà triangulaire supérieure.

\(L = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 2 & 0 & 1 \end{pmatrix}, \quad U = \begin{pmatrix} 1 & 1 & 0 \\ 0 & 1 & 1 \\ 0 & 0 & 1 \end{pmatrix}\)

Vérification :

\(PA(2) = \begin{pmatrix} 1 & 1 & 0 \\ 0 & 1 & 1 \\ 2 & 2 & 1 \end{pmatrix}\) \(LU = \begin{pmatrix} 1 & 1 & 0 \\ 0 & 1 & 1 \\ 2 & 2 & 1 \end{pmatrix} = PA(2) \quad \text{✓}\)

📄 L’essentiel du cours en 1 page


VI. Erreurs fréquentes et pièges classiques

Voici les erreurs qui reviennent le plus souvent en DS et aux concours sur la factorisation LU.

Erreur n°1 — Oublier de vérifier l’existence avant de factoriser

Copie fautive : « On pose \(\ell_{21} = a_{21}/a_{11}\)… » sans avoir vérifié que \(a_{11} \neq 0\).

Correction : toujours commencer par calculer les mineurs principaux \(\Delta_1, \ldots, \Delta_{n-1}\) avant d’écrire le moindre multiplicateur. Si l’un est nul, passer explicitement à \(PA = LU\).

Erreur n°2 — Placer les multiplicateurs au mauvais endroit dans L

Copie fautive : écrire \(\ell_{ij}\) en position \((j,i)\) au lieu de \((i,j)\) (confusion ligne/colonne).

Règle : le multiplicateur utilisé pour éliminer le coefficient en position \((i,j)\) se place en position \((i,j)\) dans \(L\). La ligne du multiplicateur est la ligne modifiée, la colonne est la colonne du pivot.

Erreur n°3 — Oublier les 1 sur la diagonale de L

Copie fautive : écrire \(\ell_{ii} = u_{ii}\) (confusion entre \(L\) et \(U\)).

Correction : par convention, \(L\) est à diagonale unité (\(\ell_{ii} = 1\) pour tout \(i\)). Les pivots se trouvent sur la diagonale de \(U\), pas de \(L\).

Erreur n°4 — Ne pas vérifier le résultat

L’étape de vérification (\(LU = A\) ?) est souvent omise par manque de temps. Pourtant, elle permet de détecter une erreur de signe dans les multiplicateurs — et c’est un calcul rapide pour une matrice 3×3. En concours, cette vérification peut sauver des points précieux.


VII. Questions fréquentes

Quelle est la différence entre le pivot de Gauss et la factorisation LU ?

Le pivot de Gauss est un algorithme de résolution de systèmes linéaires qui transforme une matrice en forme échelonnée par opérations sur les lignes. La factorisation LU est la traduction matricielle de cet algorithme : elle « mémorise » les opérations dans deux matrices \(L\) et \(U\). Le pivot de Gauss résout un système à la fois ; la factorisation LU permet de résoudre efficacement plusieurs systèmes avec la même matrice \(A\).

Comment factoriser une matrice sous forme LU ?

La méthode en 4 étapes : (1) vérifier que les mineurs principaux \(\Delta_1, \ldots, \Delta_{n-1}\) sont non nuls ; (2) appliquer l’élimination de Gauss en calculant les multiplicateurs \(\ell_{ij} = a_{ij}/a_{jj}\) à chaque étape ; (3) construire \(L\) (diagonale de 1, multiplicateurs en dessous) et \(U\) (résultat de l’élimination) ; (4) vérifier que \(LU = A\).

Que faire lorsqu'un pivot est nul pendant la factorisation ?

Si le pivot \(a_{jj}^{(j)} = 0\) à l’étape \(j\), la factorisation LU directe est impossible. Il faut alors permuter la ligne \(j\) avec une ligne \(k\) > \(j\) ayant un coefficient non nul en colonne \(j\). On obtient une factorisation \(PA = LU\) où \(P\) est une matrice de permutation. Toute matrice inversible admet une telle factorisation.

Quelles sont les trois principales méthodes de factorisation d'une matrice ?

Les trois factorisations les plus utilisées en CPGE et en calcul scientifique sont : (1) la factorisation LU (cas général), (2) la factorisation de Cholesky \(A = LL^\top\) (pour les matrices symétriques définies positives, deux fois plus rapide), et (3) la factorisation QR (pour les problèmes de moindres carrés et le calcul de valeurs propres).

La décomposition LU est-elle unique ?

La décomposition LU est unique si la matrice \(A\) est inversible. Si \(A\) est singulière mais admet une factorisation LU, \(L\) est unique, mais \(U\) peut ne pas l’être (la dernière ligne de \(U\) peut être nulle, et certaines entrées de \(L\) deviennent indéterminées). En pratique, on travaille presque toujours avec des matrices inversibles.

Qu'est-ce que la factorisation de Crout ?

La factorisation de Crout est une variante de la décomposition LU dans laquelle on impose \(U\) à diagonale unité (au lieu de \(L\)). On obtient \(A = L^\prime U^\prime\) avec \(L^\prime\) triangulaire inférieure (les pivots sont sur la diagonale de \(L^\prime\)) et \(U^\prime\) triangulaire supérieure à diagonale unité. Les deux formulations sont équivalentes : on passe de l’une à l’autre via \(A = LDU^\prime\) (factorisation LDU).


VIII. Pour aller plus loin

Tu maîtrises maintenant la factorisation de Gauss. Voici les prolongements naturels dans le cours d’algèbre linéaire :

Logo-excellence-maths
Prêt à viser les meilleures notes en prépa scientifique ?
Un professeur diplômé de Polytechnique t'accompagne avec exigence et bienveillance. Méthode éprouvée, résultats mesurables en 4 semaines. Premier cours satisfait ou remboursé.