Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec le niveau d’exigence attendu en classe préparatoire. Découvrir le professeur
Les matrices symétriques occupent une place centrale en algèbre linéaire : elles modélisent les formes quadratiques, les produits scalaires et interviennent dans la résolution des systèmes différentiels et l’optimisation. Leur propriété fondamentale — le théorème spectral, qui garantit la diagonalisabilité dans une base orthonormée — en fait l’une des classes de matrices les plus riches du programme CPGE. Ce cours couvre les matrices symétriques, antisymétriques et définies positives, avec démonstrations exigibles et 7 exercices corrigés. Conforme au programme officiel CPGE 2025-2026.
I. Matrices symétriques et antisymétriques : définitions
A. Matrice symétrique — définition et exemples
Définition — Matrice symétrique
Soit \(n \in \mathbb{N}^*\). Une matrice \(A \in \mathcal{M}_n(\mathbb{R})\) est dite symétrique si elle est égale à sa transposée :
\(A = {}^{\mathrm{t}}\!A\)
Autrement dit, pour tout \((i,j) \in [\![1, n]\!]^2\), on a \(a_{i,j} = a_{j,i}\).
On note \(\mathcal{S}_n(\mathbb{R})\) l’ensemble des matrices symétriques réelles de taille \(n\).
Les coefficients d’une matrice symétrique sont « miroir » par rapport à la diagonale principale : ce qui est au-dessus de la diagonale détermine entièrement ce qui est en dessous.
Exemples fondamentaux
- La matrice identité \(I_n\) est symétrique.
- Toute matrice diagonale \(D = \mathrm{diag}(d_1, \ldots, d_n)\) est symétrique.
- La matrice \(A = \begin{pmatrix} 2 & -1 \\ -1 & 3 \end{pmatrix}\) est symétrique : \(a_{1,2} = a_{2,1} = -1\).
- Pour toute matrice \(M \in \mathcal{M}_n(\mathbb{R})\), la matrice \({}^{\mathrm{t}}\!M \, M\) est symétrique (on le démontrera en exercice).
Proposition — \(\mathcal{S}_n(\mathbb{R})\) est un sous-espace vectoriel
\(\mathcal{S}_n(\mathbb{R})\) est un sous-espace vectoriel de \(\mathcal{M}_n(\mathbb{R})\), de dimension :
\(\dim \mathcal{S}_n(\mathbb{R}) = \displaystyle\frac{n(n+1)}{2}\)
Démonstration.
La matrice \(0_n\) est symétrique, donc \(\mathcal{S}_n(\mathbb{R}) \neq \emptyset\). Soient \(A, B \in \mathcal{S}_n(\mathbb{R})\) et \(\lambda, \mu \in \mathbb{R}\). On a :
\({}^{\mathrm{t}}(\lambda A + \mu B) = \lambda \, {}^{\mathrm{t}}\!A + \mu \, {}^{\mathrm{t}}\!B = \lambda A + \mu B\)
donc \(\lambda A + \mu B \in \mathcal{S}_n(\mathbb{R})\). Pour la dimension, les matrices \(E_{i,i}\) (pour \(1 \leq i \leq n\)) et \(E_{i,j} + E_{j,i}\) (pour \(1 \leq i\) < \(j \leq n\)) forment une base de \(\mathcal{S}_n(\mathbb{R})\). Le cardinal de cette famille est \(n + \displaystyle\frac{n(n-1)}{2} = \displaystyle\frac{n(n+1)}{2}\).
∎
B. Matrice antisymétrique — définition et propriétés
Définition — Matrice antisymétrique
Une matrice \(A \in \mathcal{M}_n(\mathbb{R})\) est dite antisymétrique si :
\(A = -{}^{\mathrm{t}}\!A\)
c’est-à-dire \(a_{i,j} = -a_{j,i}\) pour tout \((i,j) \in [\![1, n]\!]^2\).
On note \(\mathcal{A}_n(\mathbb{R})\) l’ensemble des matrices antisymétriques de taille \(n\).
Conséquence immédiate : pour tout \(i\), on a \(a_{i,i} = -a_{i,i}\), donc \(a_{i,i} = 0\). La diagonale d’une matrice antisymétrique est toujours nulle.
Exemples. La matrice générale antisymétrique de taille \(3\) est de la forme :
\(A = \begin{pmatrix} 0 & a & b \\ -a & 0 & c \\ -b & -c & 0 \end{pmatrix}, \quad (a, b, c) \in \mathbb{R}^3\)
\(\mathcal{A}_n(\mathbb{R})\) est un sous-espace vectoriel de \(\mathcal{M}_n(\mathbb{R})\) de dimension \(\displaystyle\frac{n(n-1)}{2}\). La preuve est analogue à celle de \(\mathcal{S}_n(\mathbb{R})\).
Observation dimensionnelle : \(\dim \mathcal{S}_n(\mathbb{R}) + \dim \mathcal{A}_n(\mathbb{R}) = \displaystyle\frac{n(n+1)}{2} + \displaystyle\frac{n(n-1)}{2} = n^2 = \dim \mathcal{M}_n(\mathbb{R})\). Ce n’est pas une coïncidence — c’est le signe que ces deux sous-espaces sont supplémentaires.
C. Décomposition canonique \(\mathcal{M}_n(\mathbb{R}) = \mathcal{S}_n(\mathbb{R}) \oplus \mathcal{A}_n(\mathbb{R})\)
Théorème — Décomposition symétrique-antisymétrique
L’espace \(\mathcal{M}_n(\mathbb{R})\) est somme directe de \(\mathcal{S}_n(\mathbb{R})\) et \(\mathcal{A}_n(\mathbb{R})\) :
\(\mathcal{M}_n(\mathbb{R}) = \mathcal{S}_n(\mathbb{R}) \oplus \mathcal{A}_n(\mathbb{R})\)
Pour toute matrice \(M \in \mathcal{M}_n(\mathbb{R})\), l’unique décomposition est :
\(M = \underbrace{\displaystyle\frac{1}{2}\!\left(M + {}^{\mathrm{t}}\!M\right)}_{\in \, \mathcal{S}_n(\mathbb{R})} + \underbrace{\displaystyle\frac{1}{2}\!\left(M – {}^{\mathrm{t}}\!M\right)}_{\in \, \mathcal{A}_n(\mathbb{R})}\)
Démonstration. Posons \(S(M) = \displaystyle\frac{1}{2}(M + {}^{\mathrm{t}}\!M)\) et \(A(M) = \displaystyle\frac{1}{2}(M – {}^{\mathrm{t}}\!M)\).
- \(S(M) \in \mathcal{S}_n(\mathbb{R})\) car \({}^{\mathrm{t}}\!S(M) = \displaystyle\frac{1}{2}({}^{\mathrm{t}}\!M + M) = S(M)\).
- \(A(M) \in \mathcal{A}_n(\mathbb{R})\) car \({}^{\mathrm{t}}\!A(M) = \displaystyle\frac{1}{2}({}^{\mathrm{t}}\!M – M) = -A(M)\).
- \(S(M) + A(M) = \displaystyle\frac{1}{2}(M + {}^{\mathrm{t}}\!M) + \displaystyle\frac{1}{2}(M – {}^{\mathrm{t}}\!M) = M\).
- Unicité : si \(B \in \mathcal{S}_n(\mathbb{R}) \cap \mathcal{A}_n(\mathbb{R})\), alors \(B = {}^{\mathrm{t}}\!B\) et \(B = -{}^{\mathrm{t}}\!B\), d’où \(B = -B\), soit \(B = 0_n\).
∎
Exemple. Décomposons \(M = \begin{pmatrix} 1 & 4 \\ 2 & 3 \end{pmatrix}\).
\(S(M) = \displaystyle\frac{1}{2}\begin{pmatrix} 2 & 6 \\ 6 & 6 \end{pmatrix} = \begin{pmatrix} 1 & 3 \\ 3 & 3 \end{pmatrix}\), \(\quad A(M) = \displaystyle\frac{1}{2}\begin{pmatrix} 0 & 2 \\ -2 & 0 \end{pmatrix} = \begin{pmatrix} 0 & 1 \\ -1 & 0 \end{pmatrix}\)
Vérification : \(S(M) + A(M) = \begin{pmatrix} 1 & 4 \\ 2 & 3 \end{pmatrix} = M\) ✓
II. Propriétés algébriques des matrices symétriques
Voyons maintenant les opérations qui préservent (ou non) la symétrie — une source classique d’erreurs en DS et au concours.
A. Stabilité par les opérations matricielles
Proposition — Stabilité par combinaison linéaire
Pour tout \(A, B \in \mathcal{S}_n(\mathbb{R})\) et \(\lambda, \mu \in \mathbb{R}\), on a \(\lambda A + \mu B \in \mathcal{S}_n(\mathbb{R})\).
(Déjà démontré dans la preuve de la structure de sous-espace vectoriel.)
Piège classique — Le produit de deux matrices symétriques n’est PAS toujours symétrique !
Soient \(A, B \in \mathcal{S}_n(\mathbb{R})\). On calcule :
\({}^{\mathrm{t}}(AB) = {}^{\mathrm{t}}\!B \; {}^{\mathrm{t}}\!A = BA\)
Or \(BA \neq AB\) en général (la multiplication matricielle n’est pas commutative). On obtient donc :
\(AB \in \mathcal{S}_n(\mathbb{R}) \iff AB = BA\)
Contre-exemple : \(A = \begin{pmatrix} 1 & 1 \\ 1 & 0 \end{pmatrix}\), \(B = \begin{pmatrix} 0 & 1 \\ 1 & 1 \end{pmatrix}\). On a \(AB = \begin{pmatrix} 1 & 2 \\ 0 & 1 \end{pmatrix}\), qui n’est pas symétrique.
B. Inverse et puissances d’une matrice symétrique
Proposition
- Si \(A \in \mathcal{S}_n(\mathbb{R})\) est inversible, alors \(A^{-1} \in \mathcal{S}_n(\mathbb{R})\).
- Pour tout \(k \in \mathbb{N}\), si \(A \in \mathcal{S}_n(\mathbb{R})\) alors \(A^k \in \mathcal{S}_n(\mathbb{R})\).
Démonstration.
(1) On sait que \({}^{\mathrm{t}}(A^{-1}) = ({}^{\mathrm{t}}\!A)^{-1}\). Comme \(A = {}^{\mathrm{t}}\!A\), on obtient \({}^{\mathrm{t}}(A^{-1}) = A^{-1}\).
(2) Récurrence immédiate. Le cas \(k = 0\) : \(A^0 = I_n \in \mathcal{S}_n\). Pour l’hérédité : si \(A^k \in \mathcal{S}_n\), alors \(A^{k+1} = A \cdot A^k\) et \({}^{\mathrm{t}}(A^{k+1}) = {}^{\mathrm{t}}(A^k) \, {}^{\mathrm{t}}\!A = A^k \cdot A = A^{k+1}\) (puisque \(A\) commute toujours avec ses propres puissances).
∎
C. Valeurs propres d’une matrice symétrique réelle
Voici l’un des résultats les plus fondamentaux de l’algèbre linéaire.
Théorème ⋆ — Valeurs propres réelles
Les valeurs propres d’une matrice symétrique réelle sont toutes réelles.
Démonstration ⋆ (exigible).
Soit \(A \in \mathcal{S}_n(\mathbb{R})\), \(\lambda \in \mathbb{C}\) une valeur propre et \(X \in \mathbb{C}^n \setminus \{0\}\) un vecteur propre associé : \(AX = \lambda X\).
- Conjuguons : \(A\overline{X} = \overline{\lambda} \, \overline{X}\) (car \(A\) est réelle).
- Transposons : \({}^{\mathrm{t}}\!\overline{X} \, {}^{\mathrm{t}}\!A = \overline{\lambda} \, {}^{\mathrm{t}}\!\overline{X}\).
- Puisque \({}^{\mathrm{t}}\!A = A\) : \({}^{\mathrm{t}}\!\overline{X} \, A = \overline{\lambda} \, {}^{\mathrm{t}}\!\overline{X}\).
- Multiplions à droite par \(X\) : \({}^{\mathrm{t}}\!\overline{X} \, AX = \overline{\lambda} \, {}^{\mathrm{t}}\!\overline{X} \, X\), soit \({}^{\mathrm{t}}\!\overline{X} \, AX = \overline{\lambda} \|X\|^2\).
- Mais aussi \({}^{\mathrm{t}}\!\overline{X} \, AX = {}^{\mathrm{t}}\!\overline{X} \, (\lambda X) = \lambda \|X\|^2\).
- On en déduit \(\lambda \|X\|^2 = \overline{\lambda} \|X\|^2\). Comme \(\|X\|^2 = \sum_{i=1}^n |x_i|^2\) > \(0\), on obtient \(\lambda = \overline{\lambda}\), donc \(\lambda \in \mathbb{R}\).
∎
Corollaire : le polynôme caractéristique d’une matrice symétrique réelle est scindé sur \(\mathbb{R}\). Toutes ses racines sont réelles.
Voici un tableau comparatif des propriétés essentielles des matrices symétriques et antisymétriques.
| Propriété | Symétrique (\(A = {}^{\mathrm{t}}\!A\)) | Antisymétrique (\(A = -{}^{\mathrm{t}}\!A\)) |
|---|---|---|
| Coefficients diagonaux | Quelconques | Tous nuls |
| Espace | \(\mathcal{S}_n(\mathbb{R})\) | \(\mathcal{A}_n(\mathbb{R})\) |
| Dimension | \(\displaystyle\frac{n(n+1)}{2}\) | \(\displaystyle\frac{n(n-1)}{2}\) |
| Valeurs propres | Réelles | Imaginaires pures ou nulles |
| Diagonalisable sur \(\mathbb{R}\) | Toujours (th. spectral) | Non en général |
| \(\det(A)\) si \(n\) impair | Quelconque | \(0\) |
| \(A^{-1}\) (si inversible) | Symétrique | Antisymétrique |
| \(A^2\) | Symétrique | Symétrique |
Pourquoi \(\det(A) = 0\) si \(A \in \mathcal{A}_n(\mathbb{R})\) et \(n\) impair ?
On a \(\det(A) = \det({}^{\mathrm{t}}\!A) = \det(-A) = (-1)^n \det(A) = -\det(A)\), donc \(2\det(A) = 0\).
Fiche de synthèse — Matrices symétriques
Définitions, théorème spectral, critères de positivité et formules clés sur une seule page recto-verso, prête à imprimer.
📄 Télécharger la fiche gratuiteIdéale pour tes révisions de colles et de DS
III. Le théorème spectral
Le théorème spectral est le résultat majeur sur les matrices symétriques. Il affirme non seulement qu’elles sont diagonalisables, mais qu’elles le sont dans une base orthonormée — une propriété beaucoup plus forte.
A. Orthogonalité des espaces propres
La clé du théorème spectral repose sur le lemme suivant.
Lemme ⋆ — Orthogonalité des sous-espaces propres
Soit \(A \in \mathcal{S}_n(\mathbb{R})\). Si \(\lambda\) et \(\mu\) sont deux valeurs propres distinctes de \(A\), alors les sous-espaces propres \(E_\lambda(A)\) et \(E_\mu(A)\) sont orthogonaux :
\(\forall\, X \in E_\lambda(A),\; \forall\, Y \in E_\mu(A), \quad \langle X, Y \rangle = 0\)
Démonstration ⋆ (exigible).
Soient \(X \in E_\lambda(A)\) et \(Y \in E_\mu(A)\). On calcule le produit scalaire \(\langle AX, Y \rangle\) de deux manières.
D’une part : \(\langle AX, Y \rangle = \langle \lambda X, Y \rangle = \lambda \langle X, Y \rangle\).
D’autre part : \(\langle AX, Y \rangle = {}^{\mathrm{t}}(AX) \, Y = {}^{\mathrm{t}}\!X \, {}^{\mathrm{t}}\!A \, Y = {}^{\mathrm{t}}\!X \, A \, Y = \langle X, AY \rangle = \langle X, \mu Y \rangle = \mu \langle X, Y \rangle\).
(On a utilisé \({}^{\mathrm{t}}\!A = A\) à l’étape cruciale.)
Par identification : \(\lambda \langle X, Y \rangle = \mu \langle X, Y \rangle\), soit \((\lambda – \mu)\langle X, Y \rangle = 0\). Comme \(\lambda \neq \mu\), on conclut \(\langle X, Y \rangle = 0\).
∎
B. Énoncé et démonstration du théorème spectral
Théorème spectral ⋆ (version réelle)
Toute matrice \(A \in \mathcal{S}_n(\mathbb{R})\) est diagonalisable dans une base orthonormée de \(\mathbb{R}^n\).
Autrement dit, il existe \(P \in \mathcal{O}_n(\mathbb{R})\) (matrice orthogonale) et \(D = \mathrm{diag}(\lambda_1, \ldots, \lambda_n)\) telles que :
\(A = P \, D \, {}^{\mathrm{t}}\!P\)
où les \(\lambda_i \in \mathbb{R}\) sont les valeurs propres de \(A\) (comptées avec multiplicité).
Démonstration ⋆ (exigible — par récurrence sur \(n\)).
Initialisation (\(n = 1\)). Toute matrice \(A = (a) \in \mathcal{M}_1(\mathbb{R})\) est diagonale et le vecteur \((1)\) forme une base orthonormée de \(\mathbb{R}\).
Hérédité. Supposons le résultat vrai pour toute matrice symétrique réelle de taille \((n-1) \times (n-1)\). Soit \(A \in \mathcal{S}_n(\mathbb{R})\).
- Existence d’une valeur propre réelle. Le polynôme caractéristique \(\chi_A\) est de degré \(n\) et, d’après le théorème de la section II.C, toutes ses racines sont réelles. Donc \(A\) admet au moins une valeur propre \(\lambda_1 \in \mathbb{R}\).
- Vecteur propre unitaire. Choisissons \(e_1\) vecteur propre de norme \(1\) associé à \(\lambda_1\).
- Stabilité de l’orthogonal. Posons \(F = \{e_1\}^\perp\), sous-espace de dimension \(n – 1\). Montrons que \(F\) est stable par \(A\) : pour tout \(x \in F\),
\(\langle Ax, e_1 \rangle = \langle x, Ae_1 \rangle = \langle x, \lambda_1 e_1 \rangle = \lambda_1 \langle x, e_1 \rangle = 0\)
donc \(Ax \in F\). (C’est ici que la symétrie de \(A\) est essentielle.) - Restriction. La restriction \(A|_F\) est un endomorphisme de \(F\) dont la matrice dans une base orthonormée de \(F\) est une matrice symétrique \(B \in \mathcal{S}_{n-1}(\mathbb{R})\).
- Hypothèse de récurrence. Par hypothèse, \(B\) est diagonalisable dans une base orthonormée \((e_2, \ldots, e_n)\) de \(F\).
- Conclusion. La famille \((e_1, e_2, \ldots, e_n)\) est une base orthonormée de \(\mathbb{R}^n\) formée de vecteurs propres de \(A\).
∎
Corollaire — Co-diagonalisation
Si \(A, B \in \mathcal{S}_n(\mathbb{R})\) commutent (\(AB = BA\)), alors \(A\) et \(B\) sont simultanément diagonalisables dans une même base orthonormée.
L’idée de la preuve : chaque sous-espace propre de \(A\) est stable par \(B\) (car \(AB = BA\)). La restriction de \(B\) à chaque sous-espace propre de \(A\) est symétrique, donc diagonalisable dans une base orthonormée par le théorème spectral. En recollant, on obtient une base commune.
C. Méthode de diagonalisation orthogonale pas à pas
Méthode en 5 étapes
- Calculer le polynôme caractéristique \(\chi_A(\lambda) = \det(A – \lambda I_n)\).
- Trouver les valeurs propres \(\lambda_1, \ldots, \lambda_p\) (toutes réelles).
- Déterminer chaque sous-espace propre \(E_{\lambda_i} = \ker(A – \lambda_i I_n)\).
- Orthonormaliser chaque sous-espace propre par Gram-Schmidt (nécessaire uniquement si \(\dim E_{\lambda_i} \geq 2\)).
- Former \(P\) en juxtaposant les vecteurs propres orthonormés, et \(D = \mathrm{diag}(\lambda_1, \ldots, \lambda_n)\). Vérifier \(A = P D \, {}^{\mathrm{t}}\!P\).
Exemple — Diagonalisation orthogonale de \(A = \begin{pmatrix} 3 & 1 \\ 1 & 3 \end{pmatrix}\)
Étape 1. \(\chi_A(\lambda) = (3 – \lambda)^2 – 1 = \lambda^2 – 6\lambda + 8 = (\lambda – 2)(\lambda – 4)\).
Étape 2. Valeurs propres : \(\lambda_1 = 2\), \(\lambda_2 = 4\).
Étape 3.
\(E_2 = \ker(A – 2I) = \ker\begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} = \mathrm{Vect}\begin{pmatrix} 1 \\ -1 \end{pmatrix}\)
\(E_4 = \ker(A – 4I) = \ker\begin{pmatrix} -1 & 1 \\ 1 & -1 \end{pmatrix} = \mathrm{Vect}\begin{pmatrix} 1 \\ 1 \end{pmatrix}\)
Étape 4. Chaque espace propre est de dimension 1 : on normalise directement.
\(e_1 = \displaystyle\frac{1}{\sqrt{2}}\begin{pmatrix} 1 \\ -1 \end{pmatrix}\), \(\quad e_2 = \displaystyle\frac{1}{\sqrt{2}}\begin{pmatrix} 1 \\ 1 \end{pmatrix}\)
Étape 5. \(P = \displaystyle\frac{1}{\sqrt{2}}\begin{pmatrix} 1 & 1 \\ -1 & 1 \end{pmatrix}\), \(\quad D = \begin{pmatrix} 2 & 0 \\ 0 & 4 \end{pmatrix}\).
Vérification : \(P \, D \, {}^{\mathrm{t}}\!P = \begin{pmatrix} 3 & 1 \\ 1 & 3 \end{pmatrix} = A\) ✓
IV. Matrices symétriques définies positives
Les matrices symétriques définies positives sont le pont entre l’algèbre linéaire et la géométrie : elles correspondent exactement aux produits scalaires sur \(\mathbb{R}^n\).
A. Définitions
Définitions — Positivité d’une matrice symétrique
Soit \(A \in \mathcal{S}_n(\mathbb{R})\).
- \(A\) est définie positive (notée \(A \succ 0\)) si : \(\forall\, X \in \mathbb{R}^n \setminus \{0\}, \quad {}^{\mathrm{t}}\!X \, A \, X\) > \(0\).
- \(A\) est semi-définie positive (notée \(A \succeq 0\)) si : \(\forall\, X \in \mathbb{R}^n, \quad {}^{\mathrm{t}}\!X \, A \, X \geq 0\).
- \(A\) est définie négative si \(-A\) est définie positive.
La quantité \(q(X) = {}^{\mathrm{t}}\!X \, A \, X\) est appelée forme quadratique associée à \(A\).
Exemple. La matrice \(I_n\) est définie positive : \({}^{\mathrm{t}}\!X \, I_n \, X = \|X\|^2\) > \(0\) pour tout \(X \neq 0\).
Plus généralement, \(\mathrm{diag}(d_1, \ldots, d_n)\) est définie positive si et seulement si \(d_i\) > \(0\) pour tout \(i\).
B. Critère spectral et critère de Sylvester
Théorème — Critère spectral
Soit \(A \in \mathcal{S}_n(\mathbb{R})\). Alors :
\(A \succ 0 \iff \text{toutes les valeurs propres de } A \text{ sont strictement positives}\)
De même : \(A \succeq 0 \iff \text{toutes les valeurs propres de } A \text{ sont } \geq 0\).
Démonstration. Par le théorème spectral, il existe \(P \in \mathcal{O}_n(\mathbb{R})\) telle que \(A = P \, \mathrm{diag}(\lambda_1, \ldots, \lambda_n) \, {}^{\mathrm{t}}\!P\). Posons \(Y = {}^{\mathrm{t}}\!P \, X\). Comme \(P\) est orthogonale, \(X \neq 0 \iff Y \neq 0\) et :
\({}^{\mathrm{t}}\!X \, A \, X = {}^{\mathrm{t}}\!Y \, \mathrm{diag}(\lambda_1, \ldots, \lambda_n) \, Y = \sum_{i=1}^n \lambda_i \, y_i^2\)
Cette somme est strictement positive pour tout \(Y \neq 0\) si et seulement si tous les \(\lambda_i\) sont strictement positifs.
∎
Théorème — Critère de Sylvester
Soit \(A \in \mathcal{S}_n(\mathbb{R})\). On note \(\Delta_k = \det(A_k)\) le mineur principal dominant d’ordre \(k\), où \(A_k\) est la sous-matrice formée des \(k\) premières lignes et \(k\) premières colonnes de \(A\).
\(A \succ 0 \iff \Delta_k\) > \(0 \quad \text{pour tout } k \in [\![1, n]\!]\)
Ce critère est très pratique : il permet de conclure sans calculer les valeurs propres.
Exemple. Étudions le caractère défini positif de \(A = \begin{pmatrix} 2 & 1 & 0 \\ 1 & 3 & 1 \\ 0 & 1 & 2 \end{pmatrix}\).
- \(\Delta_1 = 2\) > \(0\) ✓
- \(\Delta_2 = \det\begin{pmatrix} 2 & 1 \\ 1 & 3 \end{pmatrix} = 6 – 1 = 5\) > \(0\) ✓
- \(\Delta_3 = \det(A) = 2(6-1) – 1(2-0) + 0 = 10 – 2 = 8\) > \(0\) ✓
Tous les mineurs principaux dominants sont strictement positifs : \(A\) est définie positive.
(Vérification par les valeurs propres : \(\chi_A(\lambda) = -({\lambda – 2})(\lambda – 1)(\lambda – 4)\), donc \(\mathrm{Sp}(A) = \{1, 2, 4\}\), bien tous positifs.)
C. Lien avec les produits scalaires
Théorème — Correspondance SDP ↔ produit scalaire
L’application \(\varphi_A : (X, Y) \mapsto {}^{\mathrm{t}}\!X \, A \, Y\) est un produit scalaire sur \(\mathbb{R}^n\) si et seulement si \(A \in \mathcal{S}_n(\mathbb{R})\) est définie positive.
Réciproquement, tout produit scalaire sur \(\mathbb{R}^n\) s’écrit sous cette forme pour une unique matrice \(A \succ 0\).
Démonstration. Vérifions les axiomes du produit scalaire.
- Bilinéarité : immédiate par linéarité du produit matriciel.
- Symétrie : \(\varphi_A(X, Y) = {}^{\mathrm{t}}\!X \, A \, Y\). En transposant ce scalaire : \({}^{\mathrm{t}}({}^{\mathrm{t}}\!X \, A \, Y) = {}^{\mathrm{t}}\!Y \, {}^{\mathrm{t}}\!A \, X = {}^{\mathrm{t}}\!Y \, A \, X = \varphi_A(Y, X)\) si et seulement si \(A = {}^{\mathrm{t}}\!A\).
- Définie positive : \(\varphi_A(X, X) = {}^{\mathrm{t}}\!X \, A \, X\) > \(0\) pour tout \(X \neq 0\) si et seulement si \(A \succ 0\).
∎
Interprétation géométrique : choisir une matrice symétrique définie positive, c’est choisir une manière de mesurer les longueurs et les angles dans \(\mathbb{R}^n\). Le produit scalaire canonique correspond à \(A = I_n\).
V. Exercices corrigés
Voici 7 exercices classés par difficulté croissante, des applications directes (★) aux problèmes type concours (★★★).
Exercice 1 — Identifier symétrique et antisymétrique ★
Déterminer si chacune des matrices suivantes est symétrique, antisymétrique ou ni l’un ni l’autre :
\(A = \begin{pmatrix} 1 & 3 \\ 3 & 5 \end{pmatrix}, \qquad B = \begin{pmatrix} 0 & 2 \\ -2 & 0 \end{pmatrix}, \qquad C = \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}\)
Voir la correction
Matrice \(A\) : \({}^{\mathrm{t}}\!A = \begin{pmatrix} 1 & 3 \\ 3 & 5 \end{pmatrix} = A\). Donc \(A\) est symétrique.
Matrice \(B\) : \({}^{\mathrm{t}}\!B = \begin{pmatrix} 0 & -2 \\ 2 & 0 \end{pmatrix} = -B\). Donc \(B\) est antisymétrique.
Matrice \(C\) : \({}^{\mathrm{t}}\!C = \begin{pmatrix} 1 & 3 \\ 2 & 4 \end{pmatrix}\). On a \({}^{\mathrm{t}}\!C \neq C\) et \({}^{\mathrm{t}}\!C \neq -C\). Donc \(C\) n’est ni symétrique, ni antisymétrique.
Exercice 2 — Décomposition symétrique-antisymétrique ★
Décomposer la matrice \(M = \begin{pmatrix} 1 & 4 \\ 2 & 3 \end{pmatrix}\) en somme d’une matrice symétrique et d’une matrice antisymétrique.
Voir la correction
On applique les formules du théorème de décomposition.
\({}^{\mathrm{t}}\!M = \begin{pmatrix} 1 & 2 \\ 4 & 3 \end{pmatrix}\)Partie symétrique :
\(S = \displaystyle\frac{1}{2}(M + {}^{\mathrm{t}}\!M) = \displaystyle\frac{1}{2}\begin{pmatrix} 2 & 6 \\ 6 & 6 \end{pmatrix} = \begin{pmatrix} 1 & 3 \\ 3 & 3 \end{pmatrix}\)
Partie antisymétrique :
\(A = \displaystyle\frac{1}{2}(M – {}^{\mathrm{t}}\!M) = \displaystyle\frac{1}{2}\begin{pmatrix} 0 & 2 \\ -2 & 0 \end{pmatrix} = \begin{pmatrix} 0 & 1 \\ -1 & 0 \end{pmatrix}\)
Vérification : \(S + A = \begin{pmatrix} 1 & 4 \\ 2 & 3 \end{pmatrix} = M\) ✓. De plus \(S = {}^{\mathrm{t}}\!S\) ✓ et \(A = -{}^{\mathrm{t}}\!A\) ✓.
Exercice 3 — La matrice \({}^{\mathrm{t}}\!A \, A\) ★★
Soit \(A \in \mathcal{M}_n(\mathbb{R})\).
- Montrer que \({}^{\mathrm{t}}\!A \, A\) est symétrique semi-définie positive.
- Montrer que \({}^{\mathrm{t}}\!A \, A\) est définie positive si et seulement si \(A\) est inversible.
Voir la correction
1. Symétrie et semi-positivité.
Symétrie : \({}^{\mathrm{t}}({}^{\mathrm{t}}\!A \, A) = {}^{\mathrm{t}}\!A \, {}^{\mathrm{t}}({}^{\mathrm{t}}\!A) = {}^{\mathrm{t}}\!A \, A\). ✓
Semi-positivité : pour tout \(X \in \mathbb{R}^n\) :
\({}^{\mathrm{t}}\!X \, ({}^{\mathrm{t}}\!A \, A) \, X = {}^{\mathrm{t}}(AX) \, (AX) = \|AX\|^2 \geq 0\)
Donc \({}^{\mathrm{t}}\!A \, A \succeq 0\). ✓
2. Définie positive ⟺ \(A\) inversible.
\({}^{\mathrm{t}}\!A \, A \succ 0\) signifie : \(\forall\, X \neq 0, \; \|AX\|^2\) > \(0\), c’est-à-dire \(AX \neq 0\).
Or : \((\forall\, X \neq 0, \; AX \neq 0) \iff \ker A = \{0\} \iff A \text{ inversible}\). ✓
Exercice 4 — Diagonalisation orthogonale 2×2 ★★
Diagonaliser orthogonalement la matrice \(A = \begin{pmatrix} 5 & 2 \\ 2 & 2 \end{pmatrix}\).
Voir la correction
Étape 1 — Polynôme caractéristique.
\(\chi_A(\lambda) = (5 – \lambda)(2 – \lambda) – 4 = \lambda^2 – 7\lambda + 6 = (\lambda – 1)(\lambda – 6)\)Étape 2 — Valeurs propres : \(\lambda_1 = 1\), \(\lambda_2 = 6\).
Étape 3 — Sous-espaces propres.
\(E_1 = \ker(A – I_2) = \ker\begin{pmatrix} 4 & 2 \\ 2 & 1 \end{pmatrix} = \mathrm{Vect}\begin{pmatrix} 1 \\ -2 \end{pmatrix}\) \(E_6 = \ker(A – 6I_2) = \ker\begin{pmatrix} -1 & 2 \\ 2 & -4 \end{pmatrix} = \mathrm{Vect}\begin{pmatrix} 2 \\ 1 \end{pmatrix}\)Vérification d’orthogonalité : \(\langle (1,-2), (2,1) \rangle = 2 – 2 = 0\) ✓ (attendu par le lemme d’orthogonalité des espaces propres).
Étape 4 — Normalisation.
\(e_1 = \displaystyle\frac{1}{\sqrt{5}}\begin{pmatrix} 1 \\ -2 \end{pmatrix}\), \(\quad e_2 = \displaystyle\frac{1}{\sqrt{5}}\begin{pmatrix} 2 \\ 1 \end{pmatrix}\)
Étape 5 — Résultat.
\(P = \displaystyle\frac{1}{\sqrt{5}}\begin{pmatrix} 1 & 2 \\ -2 & 1 \end{pmatrix} \in \mathcal{O}_2(\mathbb{R})\), \(\quad D = \begin{pmatrix} 1 & 0 \\ 0 & 6 \end{pmatrix}\), \(\quad A = P D \, {}^{\mathrm{t}}\!P\).
Exercice 5 — Diagonalisation orthogonale 3×3 ★★
Diagonaliser orthogonalement la matrice \(A = \begin{pmatrix} 2 & 1 & 1 \\ 1 & 2 & 1 \\ 1 & 1 & 2 \end{pmatrix}\).
Voir la correction
Astuce : On observe que \(A = I_3 + J\) où \(J\) est la matrice dont tous les coefficients valent \(1\).
La matrice \(J\) est de rang \(1\), donc ses valeurs propres sont \(0\) (multiplicité \(2\)) et \(\mathrm{tr}(J) = 3\) (multiplicité \(1\)).
Comme \(A = I_3 + J\), les valeurs propres de \(A\) sont \(0 + 1 = 1\) (multiplicité \(2\)) et \(3 + 1 = 4\) (multiplicité \(1\)).
Sous-espaces propres.
\(E_4 = \ker(A – 4I_3) = \ker\begin{pmatrix} -2 & 1 & 1 \\ 1 & -2 & 1 \\ 1 & 1 & -2 \end{pmatrix} = \mathrm{Vect}\begin{pmatrix} 1 \\ 1 \\ 1 \end{pmatrix}\) \(E_1 = \ker(A – I_3) = \ker(J) = \{X \in \mathbb{R}^3 : x_1 + x_2 + x_3 = 0\}\)Base de \(E_1\) : \(v_1 = \begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix}\), \(v_2 = \begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix}\).
Orthonormalisation de \(E_1\) par Gram-Schmidt.
\(u_1 = v_1 = \begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix}\), \(\quad \|u_1\| = \sqrt{2}\).
\(u_2 = v_2 – \displaystyle\frac{\langle v_2, u_1 \rangle}{\|u_1\|^2} \, u_1 = \begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix} – \displaystyle\frac{1}{2}\begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix} = \begin{pmatrix} 1/2 \\ 1/2 \\ -1 \end{pmatrix}\), \(\quad \|u_2\| = \sqrt{\displaystyle\frac{3}{2}} = \displaystyle\frac{\sqrt{6}}{2}\).
Normalisation.
\(e_1 = \displaystyle\frac{1}{\sqrt{2}}\begin{pmatrix} 1 \\ -1 \\ 0 \end{pmatrix}\), \(\quad e_2 = \displaystyle\frac{1}{\sqrt{6}}\begin{pmatrix} 1 \\ 1 \\ -2 \end{pmatrix}\), \(\quad e_3 = \displaystyle\frac{1}{\sqrt{3}}\begin{pmatrix} 1 \\ 1 \\ 1 \end{pmatrix}\)
Résultat.
\(P = \begin{pmatrix} \displaystyle\frac{1}{\sqrt{2}} & \displaystyle\frac{1}{\sqrt{6}} & \displaystyle\frac{1}{\sqrt{3}} \\[6pt] -\displaystyle\frac{1}{\sqrt{2}} & \displaystyle\frac{1}{\sqrt{6}} & \displaystyle\frac{1}{\sqrt{3}} \\[6pt] 0 & -\displaystyle\frac{2}{\sqrt{6}} & \displaystyle\frac{1}{\sqrt{3}} \end{pmatrix} \in \mathcal{O}_3(\mathbb{R})\), \(\quad D = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 4 \end{pmatrix}\), \(\quad A = P D \, {}^{\mathrm{t}}\!P\).
Exercice 6 — Projecteur orthogonal ★★★
Soit \(A \in \mathcal{S}_n(\mathbb{R})\) telle que \(A^2 = A\).
- Déterminer les valeurs propres possibles de \(A\).
- Montrer que \(\mathrm{tr}(A) = \mathrm{rg}(A)\).
Voir la correction
1. \(A \in \mathcal{S}_n(\mathbb{R})\), donc par le théorème spectral, \(A\) est diagonalisable dans une base orthonormée avec des valeurs propres réelles \(\lambda_1, \ldots, \lambda_n\).
Si \(\lambda\) est une valeur propre et \(X\) un vecteur propre associé : \(A^2 X = A(AX) = A(\lambda X) = \lambda^2 X\). Or \(A^2 = A\), donc \(A^2 X = AX = \lambda X\). D’où \(\lambda^2 = \lambda\), soit \(\lambda(\lambda – 1) = 0\).
Les valeurs propres possibles sont \(0\) et \(1\).
2. Soit \(r\) le nombre de valeurs propres égales à \(1\) (comptées avec multiplicité). Alors :
\(\mathrm{tr}(A) = \sum_{i=1}^n \lambda_i = r \cdot 1 + (n – r) \cdot 0 = r\)
Par ailleurs, \(A\) est diagonalisable semblable à \(\mathrm{diag}(\underbrace{1, \ldots, 1}_{r}, \underbrace{0, \ldots, 0}_{n-r})\), donc \(\mathrm{rg}(A) = r\).
D’où \(\mathrm{tr}(A) = \mathrm{rg}(A)\). ✓
Remarque : une matrice symétrique vérifiant \(A^2 = A\) est la matrice d’un projecteur orthogonal. Ses seules valeurs propres sont \(0\) et \(1\).
Exercice 7 — Commutation et positivité ★★★
Soient \(A, B \in \mathcal{S}_n(\mathbb{R})\) définies positives telles que \(AB = BA\).
- Montrer que \(AB \in \mathcal{S}_n(\mathbb{R})\).
- Montrer que \(AB\) est définie positive.
Voir la correction
1. On calcule \({}^{\mathrm{t}}(AB) = {}^{\mathrm{t}}\!B \, {}^{\mathrm{t}}\!A = BA\) (car \(A, B \in \mathcal{S}_n\)). Or \(BA = AB\) par hypothèse, donc \({}^{\mathrm{t}}(AB) = AB\) : la matrice \(AB\) est symétrique. ✓
2. \(A\) et \(B\) sont symétriques et commutent. Par le corollaire de co-diagonalisation (section III.B), il existe \(P \in \mathcal{O}_n(\mathbb{R})\) telle que :
\(A = P \, \mathrm{diag}(\alpha_1, \ldots, \alpha_n) \, {}^{\mathrm{t}}\!P \quad \text{et} \quad B = P \, \mathrm{diag}(\beta_1, \ldots, \beta_n) \, {}^{\mathrm{t}}\!P\)
avec \(\alpha_i\) > \(0\) et \(\beta_i\) > \(0\) pour tout \(i\) (critère spectral, car \(A\) et \(B\) sont définies positives).
Alors :
\(AB = P \, \mathrm{diag}(\alpha_1 \beta_1, \ldots, \alpha_n \beta_n) \, {}^{\mathrm{t}}\!P\)
Les valeurs propres de \(AB\) sont les \(\alpha_i \beta_i\) > \(0\). Par le critère spectral, \(AB \succ 0\). ✓
📄 L’essentiel du cours en 1 page
VI. Erreurs fréquentes et pièges classiques
Erreur n°1 — Croire que le produit de matrices symétriques est symétrique
❌ Copie fautive : « \(A, B \in \mathcal{S}_n(\mathbb{R})\), donc \(AB \in \mathcal{S}_n(\mathbb{R})\). »
→ Diagnostic : \({}^{\mathrm{t}}(AB) = {}^{\mathrm{t}}\!B \, {}^{\mathrm{t}}\!A = BA \neq AB\) en général.
✅ Correction : \(AB \in \mathcal{S}_n(\mathbb{R}) \iff AB = BA\). Toujours vérifier la commutation !
Erreur n°2 — Oublier d’orthonormaliser dans le théorème spectral
❌ Copie fautive : « Les vecteurs propres \(v_1\) et \(v_2\) forment une base de diagonalisation, donc \(A = P D P^{-1}\) avec \(P \in \mathcal{O}_n(\mathbb{R})\). »
→ Diagnostic : les vecteurs propres bruts ne sont pas de norme \(1\). La matrice \(P\) n’est orthogonale que si les colonnes forment une base ortho-normée. De plus, si un espace propre est de dimension \(\geq 2\), il faut appliquer Gram-Schmidt à l’intérieur de cet espace propre.
✅ Correction : toujours normaliser chaque vecteur propre et orthonormaliser au sein de chaque espace propre de dimension \(\geq 2\).
Erreur n°3 — Confondre « symétrique » et « diagonalisable »
Toute matrice symétrique réelle est diagonalisable (théorème spectral). Mais la réciproque est fausse : la matrice \(\begin{pmatrix} 1 & 1 \\ 0 & 2 \end{pmatrix}\) est diagonalisable (valeurs propres distinctes \(1\) et \(2\)) sans être symétrique.
Erreur n°4 — Appliquer Sylvester à une matrice non symétrique
Le critère de Sylvester ne s’applique qu’aux matrices symétriques. L’appliquer à une matrice quelconque n’a aucun sens et donne des résultats faux.
Erreur n°5 — Écrire \(A = P D P^{-1}\) au lieu de \(A = P D \, {}^{\mathrm{t}}\!P\)
Quand \(P\) est orthogonale, on a \(P^{-1} = {}^{\mathrm{t}}\!P\). Écrire \(A = P D P^{-1}\) est correct, mais le correcteur attend la forme \(A = P D \, {}^{\mathrm{t}}\!P\) qui met en évidence l’orthogonalité et simplifie les calculs.
VII. Questions fréquentes
Quelle est la différence entre matrice symétrique et matrice orthogonale ?
Une matrice symétrique \(A\) vérifie \(A = {}^{\mathrm{t}}\!A\) : elle est égale à sa transposée. Une matrice orthogonale \(P\) vérifie \({}^{\mathrm{t}}\!P \, P = I_n\) : sa transposée est son inverse. Ce sont deux propriétés indépendantes. Par exemple, \(I_n\) est à la fois symétrique et orthogonale, mais la matrice de rotation \(\begin{pmatrix} 0 & -1 \\ 1 & 0 \end{pmatrix}\) est orthogonale sans être symétrique (elle est antisymétrique). Cependant, le théorème spectral lie les deux notions : toute matrice symétrique est diagonalisable via une matrice orthogonale.
Le produit de deux matrices symétriques est-il toujours symétrique ?
Non. Le produit \(AB\) de deux matrices symétriques est symétrique si et seulement si \(A\) et \(B\) commutent (\(AB = BA\)). En effet, \({}^{\mathrm{t}}(AB) = {}^{\mathrm{t}}\!B \, {}^{\mathrm{t}}\!A = BA\), qui n’est égal à \(AB\) que si les deux matrices commutent. C’est l’un des pièges les plus fréquents en DS d’algèbre linéaire.
Comment savoir si une matrice symétrique est définie positive ?
Trois méthodes principales. 1) Critère spectral : calculer les valeurs propres et vérifier qu’elles sont toutes strictement positives. 2) Critère de Sylvester : vérifier que tous les mineurs principaux dominants \(\Delta_1, \Delta_2, \ldots, \Delta_n\) sont strictement positifs (sans calculer les valeurs propres). 3) Définition : montrer directement que \({}^{\mathrm{t}}\!X A X\) > \(0\) pour tout \(X \neq 0\) (utile quand \(A\) a une forme particulière).
Pourquoi les valeurs propres d'une matrice symétrique réelle sont-elles réelles ?
L’idée clé de la démonstration : si \(\lambda\) est une valeur propre (a priori complexe) et \(X\) un vecteur propre, on calcule \({}^{\mathrm{t}}\!\overline{X} \, AX\) de deux manières. D’un côté on obtient \(\lambda \|X\|^2\), de l’autre \(\overline{\lambda} \|X\|^2\) (en utilisant la symétrie \(A = {}^{\mathrm{t}}\!A\)). Comme \(\|X\|^2 \neq 0\), on en déduit \(\lambda = \overline{\lambda}\), donc \(\lambda \in \mathbb{R}\). La preuve complète est détaillée dans la section II.C.
Toute matrice diagonalisable est-elle symétrique ?
Non. La matrice \(\begin{pmatrix} 1 & 1 \\ 0 & 2 \end{pmatrix}\) est diagonalisable (valeurs propres distinctes \(1\) et \(2\)) mais n’est pas symétrique. L’implication ne marche que dans un sens : symétrique \(\Rightarrow\) diagonalisable (théorème spectral). Ce qui est spécifique aux matrices symétriques, c’est la diagonalisabilité dans une base orthonormée.
À quoi servent les matrices symétriques en pratique ?
Les matrices symétriques apparaissent dans de nombreux domaines. En physique, les matrices d’inertie et les opérateurs quantiques hermitiens (version complexe) sont symétriques. En optimisation, la matrice hessienne d’une fonction est symétrique, et son caractère défini positif caractérise les minima. En statistique, la matrice de covariance est symétrique semi-définie positive. En informatique, les graphes non orientés ont des matrices d’adjacence symétriques, et la diagonalisation spectrale est au cœur de l’analyse en composantes principales (ACP).
VIII. Pour aller plus loin
Tu maîtrises maintenant les matrices symétriques, antisymétriques et définies positives. Pour approfondir ces notions :
- Transposée d’une matrice — la brique fondamentale derrière la symétrie
- Diagonalisation d’une matrice — méthode complète et cas général (non symétrique)
- Matrice orthogonale — les matrices de passage dans le théorème spectral
- Valeurs propres et vecteurs propres — cours complet sur le spectre
- Trace d’une matrice — somme des valeurs propres et applications
- Déterminant d’une matrice — calcul et lien avec l’inversibilité
- Exercices : diagonalisation et réduction — 15+ exercices type concours
- Exercices corrigés sur les matrices — entraînement transversal