Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec le niveau d’exigence attendu en classe préparatoire. Découvrir le professeur
Les matrices orthogonales sont les matrices qui conservent le produit scalaire euclidien — autrement dit, elles représentent les isométries vectorielles de \(\mathbb{R}^n\) : rotations, réflexions, et leurs composées. Omniprésentes en géométrie euclidienne, en physique (changements de repère) et en analyse numérique (décomposition QR, procédé de Gram-Schmidt), elles constituent un objet central du programme de CPGE. Ce cours couvre leur définition, quatre caractérisations équivalentes, les propriétés algébriques du groupe orthogonal, la classification en dimension 2, et propose 8 exercices corrigés progressifs.
I. Définition et premiers exemples
A. Définition formelle
On travaille dans \(\mathcal{M}_n(\mathbb{R})\), l’algèbre des matrices carrées réelles d’ordre \(n\). On note \({}^tA\) la transposée d’une matrice \(A\) et \(I_n\) la matrice identité d’ordre \(n\).
Définition — Matrice orthogonale
Une matrice \(A \in \mathcal{M}_n(\mathbb{R})\) est dite orthogonale si elle vérifie :
\({}^tA \, A = I_n\)
L’ensemble des matrices orthogonales d’ordre \(n\) est noté \(\mathrm{O}_n(\mathbb{R})\) :
\(\mathrm{O}_n(\mathbb{R}) = \big\{ A \in \mathcal{M}_n(\mathbb{R}) \mid {}^tA\, A = I_n \big\}\)
La condition \({}^tA \, A = I_n\) signifie que \({}^tA\) est un inverse à gauche de \(A\). Or, en dimension finie, un inverse à gauche est automatiquement un inverse bilatère. Précisons cela.
Propriété — Inversibilité et équivalence
Soit \(A \in \mathcal{M}_n(\mathbb{R})\). Les assertions suivantes sont équivalentes :
- \({}^tA \, A = I_n\)
- \(A \, {}^tA = I_n\)
- \(A\) est inversible et \(A^{-1} = {}^tA\)
Démonstration ⋆
(1) \(\Rightarrow\) (3) : Supposons \({}^tA\, A = I_n\). Si \(Ax = 0\), alors \({}^tA\, Ax = {}^tA \cdot 0 = 0\), donc \(I_n x = 0\), soit \(x = 0\). Ainsi \(A\) est injective. Comme \(A \in \mathcal{M}_n(\mathbb{R})\), une matrice carrée injective est inversible. L’égalité \({}^tA\, A = I_n\) donne alors \(A^{-1} = {}^tA\).
(3) \(\Rightarrow\) (2) : Si \(A^{-1} = {}^tA\), alors \(A \, {}^tA = A\, A^{-1} = I_n\).
(2) \(\Rightarrow\) (1) : Raisonnement identique en échangeant les rôles de \(A\) et \({}^tA\).
□
Conséquence pratique : pour une matrice orthogonale, calculer l’inverse est immédiat : il suffit de transposer. Pas besoin de la méthode de Gauss ou de la comatrice.
B. Exemples fondamentaux
Voici les matrices orthogonales que tu rencontreras le plus souvent en CPGE.
Exemple 1 — Matrice identité.
\(I_n \in \mathrm{O}_n(\mathbb{R})\) car \({}^tI_n \, I_n = I_n^2 = I_n\).
Exemple 2 — Matrice de rotation en dimension 2.
Pour tout \(\theta \in \mathbb{R}\), la matrice :
\(R_\theta = \begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix}\)
est orthogonale. En effet :
\({}^tR_\theta \, R_\theta = \begin{pmatrix} \cos\theta & \sin\theta \\ -\sin\theta & \cos\theta \end{pmatrix} \begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix} = \begin{pmatrix} \cos^2\theta + \sin^2\theta & 0 \\ 0 & \sin^2\theta + \cos^2\theta \end{pmatrix} = I_2\)
Exemple 3 — Matrice de réflexion.
La matrice \(S = \begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}\) est orthogonale : \({}^tS = S\) et \(S^2 = I_2\), donc \({}^tS \, S = I_2\). Géométriquement, \(S\) représente la réflexion par rapport à l’axe \((Ox)\).
Exemple 4 — Matrice de permutation.
La matrice \(P = \begin{pmatrix} 0 & 0 & 1 \\ 1 & 0 & 0 \\ 0 & 1 & 0 \end{pmatrix}\) est orthogonale : ses colonnes sont les vecteurs de la base canonique (dans un ordre différent), qui forment évidemment une famille orthonormée. Plus généralement, toute matrice de permutation est orthogonale.
Exemple 5 — Matrice diagonale à coefficients \(\pm 1\).
Toute matrice diagonale \(D = \mathrm{diag}(\varepsilon_1, \ldots, \varepsilon_n)\) avec \(\varepsilon_i \in \{-1, 1\}\) est orthogonale, car \({}^tD = D\) et \(D^2 = I_n\).
C. Orthogonale ou orthonormale ?
Une confusion terminologique revient souvent. La condition \({}^tA\, A = I_n\) exige que les colonnes de \(A\) soient orthogonales deux à deux et de norme 1 (on dit orthonormées). Autrement dit, les colonnes forment une base orthonormée de \(\mathbb{R}^n\).
Alors pourquoi parle-t-on de matrice « orthogonale » et non « orthonormale » ? C’est une convention historique, solidement ancrée dans la littérature française et internationale. Certains ouvrages utilisent « matrice orthonormale » (notamment au lycée), mais en CPGE et au-delà, le terme standard est matrice orthogonale.
Piège : une matrice dont les colonnes sont orthogonales (mais pas de norme 1) n’est pas une matrice orthogonale au sens de la définition. Par exemple, \(\begin{pmatrix} 2 & 0 \\ 0 & 3 \end{pmatrix}\) a des colonnes orthogonales, mais elle n’est pas dans \(\mathrm{O}_2(\mathbb{R})\).
II. Caractérisations équivalentes
La condition \({}^tA\, A = I_n\) admet plusieurs reformulations qui éclairent la nature géométrique des matrices orthogonales. Ces caractérisations sont fondamentales en CPGE — il faut savoir passer de l’une à l’autre avec fluidité.
A. Caractérisation par les colonnes et les lignes
Notons \(C_1, \ldots, C_n \in \mathbb{R}^n\) les colonnes de \(A\) et \(\langle \cdot, \cdot \rangle\) le produit scalaire canonique de \(\mathbb{R}^n\).
Théorème — Caractérisation par les colonnes
Soit \(A \in \mathcal{M}_n(\mathbb{R})\). Alors :
\(A \in \mathrm{O}_n(\mathbb{R}) \iff (C_1, \ldots, C_n) \text{ est une base orthonormée de } \mathbb{R}^n\)
De même, \(A \in \mathrm{O}_n(\mathbb{R})\) si et seulement si les lignes de \(A\) forment une base orthonormée de \(\mathbb{R}^n\).
Démonstration ⋆
Le coefficient \((i,j)\) de la matrice \({}^tA\, A\) vaut :
\(({}^tA\, A)_{ij} = \displaystyle\sum_{k=1}^{n} ({}^tA)_{ik}\, A_{kj} = \displaystyle\sum_{k=1}^{n} A_{ki}\, A_{kj} = \langle C_i, C_j \rangle\)
Donc \({}^tA\, A = I_n\) si et seulement si \(\langle C_i, C_j \rangle = \delta_{ij}\) pour tout \((i,j)\), ce qui signifie exactement que \((C_1, \ldots, C_n)\) est une famille orthonormée. Comme elle contient \(n\) vecteurs de \(\mathbb{R}^n\), c’est une base orthonormée.
Pour les lignes : \(A \in \mathrm{O}_n(\mathbb{R}) \Leftrightarrow A\,{}^tA = I_n\), et les colonnes de \({}^tA\) sont les lignes de \(A\). Le même raisonnement appliqué à \({}^tA\) donne le résultat.
□
En pratique : pour vérifier qu’une matrice est orthogonale, il suffit de vérifier que ses colonnes sont deux à deux orthogonales et chacune de norme 1. C’est souvent plus rapide que de calculer le produit matriciel \({}^tA\, A\) en entier.
B. Conservation du produit scalaire et de la norme
La caractérisation la plus géométrique est la suivante : une matrice orthogonale est exactement une matrice qui préserve les distances et les angles.
Théorème — Caractérisations géométriques
Soit \(A \in \mathcal{M}_n(\mathbb{R})\). Les assertions suivantes sont équivalentes :
- \(A \in \mathrm{O}_n(\mathbb{R})\)
- \(\forall\, x, y \in \mathbb{R}^n, \quad \langle Ax, Ay \rangle = \langle x, y \rangle\) (conservation du produit scalaire)
- \(\forall\, x \in \mathbb{R}^n, \quad \|Ax\| = \|x\|\) (conservation de la norme — isométrie)
Démonstration ⋆
(1) \(\Rightarrow\) (2) : Soit \(x, y \in \mathbb{R}^n\). On a :
\(\langle Ax, Ay \rangle = {}^t(Ax) \cdot Ay = {}^tx\, {}^tA\, A\, y = {}^tx\, I_n\, y = {}^tx\, y = \langle x, y \rangle\)
(2) \(\Rightarrow\) (3) : Prendre \(y = x\) : \(\|Ax\|^2 = \langle Ax, Ax \rangle = \langle x, x \rangle = \|x\|^2\).
(3) \(\Rightarrow\) (1) : L’identité de polarisation permet de retrouver le produit scalaire à partir de la norme :
\(\langle x, y \rangle = \displaystyle\frac{1}{2}\big(\|x + y\|^2 – \|x\|^2 – \|y\|^2\big)\)
Si \(\|Ax\| = \|x\|\) pour tout \(x\), alors :
\(\langle Ax, Ay \rangle = \displaystyle\frac{1}{2}\big(\|A(x+y)\|^2 – \|Ax\|^2 – \|Ay\|^2\big) = \displaystyle\frac{1}{2}\big(\|x+y\|^2 – \|x\|^2 – \|y\|^2\big) = \langle x, y \rangle\)
En appliquant aux vecteurs de la base canonique \((e_1, \ldots, e_n)\) :
\(({}^tA\, A)_{ij} = \langle Ae_i, Ae_j \rangle = \langle e_i, e_j \rangle = \delta_{ij}\)
Donc \({}^tA\, A = I_n\).
□
L’équivalence (1) \(\Leftrightarrow\) (3) montre que les matrices orthogonales sont exactement les isométries linéaires de l’espace euclidien \((\mathbb{R}^n, \langle \cdot, \cdot \rangle)\). En géométrie, on retrouve les rotations, les réflexions et leurs composées.
C. Tableau récapitulatif
| Caractérisation | Formulation | Interprétation |
|---|---|---|
| Définition | \({}^tA\, A = I_n\) | Inverse = transposée |
| Colonnes | \(\langle C_i, C_j \rangle = \delta_{ij}\) | Base orthonormée de \(\mathbb{R}^n\) |
| Lignes | \(\langle L_i, L_j \rangle = \delta_{ij}\) | Base orthonormée de \(\mathbb{R}^n\) |
| Produit scalaire | \(\langle Ax, Ay \rangle = \langle x, y \rangle\) | Conservation des angles |
| Norme | \(\|Ax\| = \|x\|\) | Isométrie vectorielle |
III. Propriétés algébriques
Au-delà de la géométrie, les matrices orthogonales possèdent une structure algébrique remarquable : elles forment un groupe pour la multiplication matricielle.
A. Le groupe orthogonal \(\mathrm{O}_n(\mathbb{R})\)
Proposition — Structure de groupe
\(\mathrm{O}_n(\mathbb{R})\) est un sous-groupe de \((\mathrm{GL}_n(\mathbb{R}), \times)\).
Démonstration ⋆
Non vide : \(I_n \in \mathrm{O}_n(\mathbb{R})\) car \({}^tI_n\, I_n = I_n\).
Stable par produit : Soient \(A, B \in \mathrm{O}_n(\mathbb{R})\). Alors :
\({}^t(AB)\, (AB) = {}^tB\, {}^tA\, A\, B = {}^tB\, I_n\, B = {}^tB\, B = I_n\)
Donc \(AB \in \mathrm{O}_n(\mathbb{R})\).
Stable par passage à l’inverse : Si \(A \in \mathrm{O}_n(\mathbb{R})\), alors \(A^{-1} = {}^tA\). Vérifions que \({}^tA \in \mathrm{O}_n(\mathbb{R})\) :
\({}^t({}^tA)\, {}^tA = A\, {}^tA = I_n\)
Donc \(A^{-1} = {}^tA \in \mathrm{O}_n(\mathbb{R})\).
□
B. Déterminant et groupe spécial orthogonal \(\mathrm{SO}_n(\mathbb{R})\)
Le déterminant d’une matrice orthogonale est très contraint.
Théorème — Déterminant d’une matrice orthogonale
Pour tout \(A \in \mathrm{O}_n(\mathbb{R})\) :
\(\det(A) \in \{-1,\, 1\}\)
Démonstration ⋆
De \({}^tA\, A = I_n\), on tire :
\(\det({}^tA\, A) = \det(I_n) = 1\)
Or \(\det({}^tA) = \det(A)\), donc \(\det(A)^2 = 1\), ce qui donne \(\det(A) = \pm 1\).
□
Cette dichotomie permet de distinguer deux classes de matrices orthogonales :
Définition — Groupe spécial orthogonal
\(\mathrm{SO}_n(\mathbb{R}) = \{A \in \mathrm{O}_n(\mathbb{R}) \mid \det(A) = 1\}\)
\(\mathrm{SO}_n(\mathbb{R})\) est un sous-groupe de \(\mathrm{O}_n(\mathbb{R})\) (noyau du morphisme \(\det : \mathrm{O}_n(\mathbb{R}) \to \{-1, 1\}\)).
En géométrie euclidienne :
- \(\det(A) = 1\) : isométrie directe (rotation) — conserve l’orientation.
- \(\det(A) = -1\) : isométrie indirecte (réflexion, anti-rotation) — renverse l’orientation.
C. Valeurs propres d’une matrice orthogonale
Les valeurs propres d’une matrice orthogonale sont très contraintes par la conservation de la norme.
Propriété — Valeurs propres réelles
Si \(A \in \mathrm{O}_n(\mathbb{R})\) et \(\lambda \in \mathbb{R}\) est une valeur propre de \(A\), alors \(\lambda \in \{-1,\, 1\}\).
Démonstration ⋆
Soit \(x \in \mathbb{R}^n \setminus \{0\}\) un vecteur propre associé à \(\lambda\) : \(Ax = \lambda x\). Comme \(A\) est orthogonale, \(\|Ax\| = \|x\|\). Or \(\|Ax\| = \|\lambda x\| = |\lambda| \cdot \|x\|\). Puisque \(\|x\| \neq 0\) :
\(|\lambda| = 1\)
Donc \(\lambda = 1\) ou \(\lambda = -1\).
□
Et les valeurs propres complexes ? Si \(\lambda \in \mathbb{C}\) est une valeur propre complexe de \(A \in \mathrm{O}_n(\mathbb{R})\), alors \(|\lambda| = 1\) : les valeurs propres vivent sur le cercle unité du plan complexe. Elles apparaissent par paires conjuguées \(e^{i\alpha}\) et \(e^{-i\alpha}\) (car \(A\) est réelle).
D. Lien avec les matrices symétriques
Les matrices orthogonales interviennent de façon fondamentale dans la théorie des matrices symétriques, via le théorème spectral : toute matrice symétrique réelle est diagonalisable dans une base orthonormée. Formellement : si \(S \in \mathcal{S}_n(\mathbb{R})\), il existe \(P \in \mathrm{O}_n(\mathbb{R})\) et \(D\) diagonale tels que :
\(S = P\, D\, {}^tP\)
La matrice de passage \(P\) est orthogonale précisément parce que les vecteurs propres d’une matrice symétrique réelle associés à des valeurs propres distinctes sont orthogonaux. Pour un traitement complet, consulte le cours sur la diagonalisation et les matrices symétriques.
IV. Classification en petites dimensions
En petite dimension, on peut décrire explicitement toutes les matrices orthogonales. Le cas \(n = 2\) est essentiel : il revient constamment en exercice et en concours.
A. Matrices orthogonales \(2 \times 2\)
Théorème — Classification de \(\mathrm{O}_2(\mathbb{R})\)
Toute matrice de \(\mathrm{O}_2(\mathbb{R})\) est de l’une des deux formes suivantes :
- Rotation \((\det = 1)\) : \(R_\theta = \begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix}\) pour un unique \(\theta \in [0, 2\pi[\)
- Réflexion \((\det = -1)\) : \(S_\theta = \begin{pmatrix} \cos\theta & \sin\theta \\ \sin\theta & -\cos\theta \end{pmatrix}\) pour un unique \(\theta \in [0, 2\pi[\)
Démonstration
Soit \(A = \begin{pmatrix} a & b \\ c & d \end{pmatrix} \in \mathrm{O}_2(\mathbb{R})\). La première colonne \(\begin{pmatrix} a \\ c \end{pmatrix}\) est de norme 1, donc il existe \(\theta \in \mathbb{R}\) tel que \(a = \cos\theta\) et \(c = \sin\theta\).
La seconde colonne \(\begin{pmatrix} b \\ d \end{pmatrix}\) est de norme 1 et orthogonale à la première :
\(b\cos\theta + d\sin\theta = 0 \quad \text{et} \quad b^2 + d^2 = 1\)
Cas \(\det(A) = 1\) : \(ad – bc = 1\) et la condition d’orthogonalité donnent \(b = -\sin\theta\) et \(d = \cos\theta\). On obtient \(R_\theta\).
Cas \(\det(A) = -1\) : \(ad – bc = -1\) et la condition d’orthogonalité donnent \(b = \sin\theta\) et \(d = -\cos\theta\). On obtient \(S_\theta\).
□
Retenir la forme : pour une rotation, les colonnes de la matrice sont \(\begin{pmatrix} \cos\theta \\ \sin\theta \end{pmatrix}\) et \(\begin{pmatrix} -\sin\theta \\ \cos\theta \end{pmatrix}\). Pour une réflexion, la deuxième colonne est \(\begin{pmatrix} \sin\theta \\ -\cos\theta \end{pmatrix}\) — le signe du cosinus en bas change.
B. Interprétation géométrique
L’interprétation de la classification est la suivante :
- \(R_\theta \in \mathrm{SO}_2(\mathbb{R})\) est la rotation d’angle \(\theta\) centrée en \(O\). La composée \(R_\theta \circ R_\varphi = R_{\theta + \varphi}\) est une rotation ; le groupe \(\mathrm{SO}_2(\mathbb{R})\) est commutatif.
- \(S_\theta\) est la réflexion par rapport à la droite passant par l’origine et faisant un angle \(\displaystyle\frac{\theta}{2}\) avec l’axe \((Ox)\). On vérifie que \(S_\theta^2 = I_2\) : une réflexion est une involution.
En dimension 3 : le théorème d’Euler affirme que tout élément de \(\mathrm{SO}_3(\mathbb{R})\) (autre que \(I_3\)) est une rotation autour d’un axe — la valeur propre \(\lambda = 1\) correspond au vecteur directeur de cet axe (cf. exercice 6). Si \(A \in \mathrm{O}_3(\mathbb{R})\) avec \(\det(A) = -1\), alors \(A\) est la composée d’une rotation et d’une réflexion par rapport à un plan.
V. Méthode — Vérifier qu’une matrice est orthogonale
A. Les étapes de vérification
Méthode en 3 étapes
- Colonnes de norme 1 : calculer \(\|C_j\|^2 = \displaystyle\sum_{i=1}^{n} a_{ij}^2\) pour chaque colonne \(j\). Vérifier que chaque norme vaut 1.
- Colonnes orthogonales deux à deux : calculer \(\langle C_i, C_j \rangle = \displaystyle\sum_{k=1}^{n} a_{ki}\, a_{kj}\) pour \(i \neq j\). Vérifier que chaque produit scalaire vaut 0.
- Conclure : si les deux conditions sont satisfaites, \(A \in \mathrm{O}_n(\mathbb{R})\). Calculer le déterminant pour savoir si c’est une rotation (\(\det = 1\)) ou une réflexion (\(\det = -1\)).
Raccourci pour les matrices \(2 \times 2\) : vérifier que la première colonne est de norme 1 et que la matrice a la forme \(R_\theta\) ou \(S_\theta\). Cela suffit.
B. Exemples résolus
Exemple 1 — Matrice \(2 \times 2\).
Soit \(A = \begin{pmatrix} \displaystyle\frac{\sqrt{3}}{2} & -\displaystyle\frac{1}{2} \\[6pt] \displaystyle\frac{1}{2} & \displaystyle\frac{\sqrt{3}}{2} \end{pmatrix}\).
Étape 1 : \(\|C_1\|^2 = \displaystyle\frac{3}{4} + \displaystyle\frac{1}{4} = 1\). \(\|C_2\|^2 = \displaystyle\frac{1}{4} + \displaystyle\frac{3}{4} = 1\).
Étape 2 : \(\langle C_1, C_2 \rangle = -\displaystyle\frac{\sqrt{3}}{4} + \displaystyle\frac{\sqrt{3}}{4} = 0\).
Conclusion : \(A \in \mathrm{O}_2(\mathbb{R})\). C’est la matrice de rotation \(R_{\pi/6}\), avec \(\det(A) = 1\).
Exemple 2 — Matrice \(3 \times 3\).
Soit \(A = \displaystyle\frac{1}{3}\begin{pmatrix} 2 & -1 & 2 \\ 2 & 2 & -1 \\ -1 & 2 & 2 \end{pmatrix}\).
Étape 1 : \(\|C_1\|^2 = \displaystyle\frac{1}{9}(4 + 4 + 1) = 1\). De même \(\|C_2\|^2 = \displaystyle\frac{1}{9}(1+4+4) = 1\) et \(\|C_3\|^2 = \displaystyle\frac{1}{9}(4+1+4) = 1\).
Étape 2 : \(\langle C_1, C_2 \rangle = \displaystyle\frac{1}{9}(-2+4-2) = 0\), \(\langle C_1, C_3 \rangle = \displaystyle\frac{1}{9}(4-2-2) = 0\), \(\langle C_2, C_3 \rangle = \displaystyle\frac{1}{9}(-2-2+4) = 0\).
Conclusion : \(A \in \mathrm{O}_3(\mathbb{R})\). On calcule \(\det(A) = \displaystyle\frac{1}{27}(2 \cdot 6 + 1 \cdot 3 + 2 \cdot 6) = 1\), donc \(A \in \mathrm{SO}_3(\mathbb{R})\) : c’est une rotation de \(\mathbb{R}^3\).
Fiche de synthèse — Matrice orthogonale
Définition, 5 caractérisations, propriétés du groupe orthogonal, classification en dimension 2 et méthode de vérification — tout sur une page recto-verso.
📄 Télécharger la fiche de synthèseIdéal pour tes révisions de colles et de concours.
VI. Exercices corrigés
Voici 8 exercices progressifs pour maîtriser les matrices orthogonales. Les corrections sont détaillées et pliables.
Exercice 1 (★) — Vérification directe
Vérifier que la matrice \(R = \displaystyle\frac{1}{\sqrt{2}}\begin{pmatrix} 1 & -1 \\ 1 & 1 \end{pmatrix}\) est orthogonale. S’agit-il d’une rotation ou d’une réflexion ? Si c’est une rotation, déterminer son angle.
Voir la correction
Colonnes : \(C_1 = \displaystyle\frac{1}{\sqrt{2}}\begin{pmatrix} 1 \\ 1 \end{pmatrix}\), \(C_2 = \displaystyle\frac{1}{\sqrt{2}}\begin{pmatrix} -1 \\ 1 \end{pmatrix}\).
\(\|C_1\|^2 = \displaystyle\frac{1}{2}(1+1) = 1\), \(\|C_2\|^2 = \displaystyle\frac{1}{2}(1+1) = 1\), \(\langle C_1, C_2 \rangle = \displaystyle\frac{1}{2}(-1+1) = 0\).
Donc \(R \in \mathrm{O}_2(\mathbb{R})\).
\(\det(R) = \displaystyle\frac{1}{2}(1 + 1) = 1\), donc \(R \in \mathrm{SO}_2(\mathbb{R})\) : c’est une rotation.
On identifie \(\cos\theta = \displaystyle\frac{1}{\sqrt{2}}\) et \(\sin\theta = \displaystyle\frac{1}{\sqrt{2}}\), donc \(\theta = \displaystyle\frac{\pi}{4}\). C’est la rotation d’angle \(\displaystyle\frac{\pi}{4}\).
Exercice 2 (★) — Tri de matrices
Parmi les matrices suivantes, déterminer lesquelles sont orthogonales :
\(A = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}, \quad B = \begin{pmatrix} 1 & 1 \\ -1 & 1 \end{pmatrix}, \quad C = \displaystyle\frac{1}{\sqrt{2}}\begin{pmatrix} 1 & 1 \\ -1 & 1 \end{pmatrix}\)
Voir la correction
Matrice \(A\) : Colonnes \(\begin{pmatrix} 0 \\ 1 \end{pmatrix}\) et \(\begin{pmatrix} 1 \\ 0 \end{pmatrix}\), chacune de norme 1 et orthogonales. Donc \(A \in \mathrm{O}_2(\mathbb{R})\). De plus \(\det(A) = -1\) : c’est une réflexion.
Matrice \(B\) : \(\|C_1\|^2 = 1 + 1 = 2 \neq 1\). La première colonne n’est pas de norme 1. Donc \(B \notin \mathrm{O}_2(\mathbb{R})\).
Matrice \(C\) : \(C = \displaystyle\frac{1}{\sqrt{2}} B\). On a \(\|C_1\|^2 = \displaystyle\frac{1}{2}(1+1) = 1\), \(\|C_2\|^2 = 1\), \(\langle C_1, C_2 \rangle = \displaystyle\frac{1}{2}(1-1) = 0\). Donc \(C \in \mathrm{O}_2(\mathbb{R})\). On a \(\det(C) = \displaystyle\frac{1}{2}(1+1) = 1\) : c’est la rotation d’angle \(-\displaystyle\frac{\pi}{4}\).
Conclusion : \(A\) et \(C\) sont orthogonales, pas \(B\). L’exercice illustre que la normalisation est indispensable : \(B\) a des colonnes orthogonales, mais pas orthonormées.
Exercice 3 (★★) — Matrice \(3 \times 3\)
Soit \(A = \displaystyle\frac{1}{3}\begin{pmatrix} 1 & -2 & 2 \\ 2 & -1 & -2 \\ 2 & 2 & 1 \end{pmatrix}\).
- Montrer que \(A \in \mathrm{O}_3(\mathbb{R})\).
- S’agit-il d’une rotation ou d’une réflexion ?
- Sachant que la trace d’une rotation de \(\mathbb{R}^3\) d’angle \(\alpha\) vaut \(1 + 2\cos\alpha\), déterminer l’angle de rotation.
Voir la correction
1. Colonnes : \(C_1 = \displaystyle\frac{1}{3}(1, 2, 2)\), \(C_2 = \displaystyle\frac{1}{3}(-2, -1, 2)\), \(C_3 = \displaystyle\frac{1}{3}(2, -2, 1)\).
\(\|C_1\|^2 = \displaystyle\frac{1}{9}(1+4+4) = 1\), \(\|C_2\|^2 = \displaystyle\frac{1}{9}(4+1+4) = 1\), \(\|C_3\|^2 = \displaystyle\frac{1}{9}(4+4+1) = 1\).
\(\langle C_1, C_2 \rangle = \displaystyle\frac{1}{9}(-2-2+4) = 0\), \(\langle C_1, C_3 \rangle = \displaystyle\frac{1}{9}(2-4+2) = 0\), \(\langle C_2, C_3 \rangle = \displaystyle\frac{1}{9}(-4+2+2) = 0\).
Donc \(A \in \mathrm{O}_3(\mathbb{R})\).
2. On calcule le déterminant par développement selon la première ligne :
\(\det(3A) = 1 \cdot (-1+4) + 2 \cdot (2+4) + 2 \cdot (4+2) = 3 + 12 + 12 = 27\)
Donc \(\det(A) = \displaystyle\frac{27}{27} = 1\). C’est une rotation.
3. \(\mathrm{tr}(A) = \displaystyle\frac{1}{3}(1-1+1) = \displaystyle\frac{1}{3}\). On résout \(1 + 2\cos\alpha = \displaystyle\frac{1}{3}\), soit \(\cos\alpha = -\displaystyle\frac{1}{3}\). L’angle de rotation est \(\alpha = \arccos\!\left(-\displaystyle\frac{1}{3}\right) \approx 109{,}47°\).
Exercice 4 (★★) — Puissances de matrices orthogonales
Soit \(A \in \mathrm{O}_n(\mathbb{R})\). Montrer que \(\forall\, k \in \mathbb{Z},\; A^k \in \mathrm{O}_n(\mathbb{R})\).
Voir la correction
Puisque \(\mathrm{O}_n(\mathbb{R})\) est un sous-groupe de \(\mathrm{GL}_n(\mathbb{R})\) (cf. section III.A), il est stable par produit et passage à l’inverse. Donc pour tout \(k \in \mathbb{Z}\), \(A^k \in \mathrm{O}_n(\mathbb{R})\).
Démonstration directe (sans utiliser la structure de groupe) :
Cas \(k \geq 1\) : par récurrence. L’initialisation est claire. Hérédité : si \(A^k \in \mathrm{O}_n(\mathbb{R})\), alors \({}^t(A^{k+1})\, A^{k+1} = {}^tA\, {}^t(A^k)\, A^k\, A = {}^tA\, I_n\, A = {}^tA\, A = I_n\).
Cas \(k = 0\) : \(A^0 = I_n \in \mathrm{O}_n(\mathbb{R})\).
Cas \(k \leq -1\) : \(A^k = (A^{-1})^{|k|} = ({}^tA)^{|k|}\). Or \({}^tA \in \mathrm{O}_n(\mathbb{R})\) (montré en III.A), et le cas \(k \geq 1\) s’applique.
Exercice 5 (★★) — Orthogonale et symétrique
Soit \(A \in \mathrm{O}_n(\mathbb{R})\) telle que \(A\) est aussi symétrique (\({}^tA = A\)). Montrer que \(A^2 = I_n\).
Voir la correction
Par hypothèse, \(A\) est orthogonale : \({}^tA\, A = I_n\), et symétrique : \({}^tA = A\). En substituant :
\(A \cdot A = I_n \quad \text{i.e.} \quad A^2 = I_n\)
Autrement dit, \(A\) est une involution. Ses valeurs propres vérifient \(\lambda^2 = 1\), donc \(\lambda \in \{-1, 1\}\) (ce qui est cohérent avec le fait que les valeurs propres d’une matrice orthogonale réelle sont \(\pm 1\)).
Interprétation géométrique : une matrice à la fois orthogonale et symétrique est une symétrie orthogonale (réflexion par rapport à un sous-espace vectoriel).
Exercice 6 (★★★) — Valeur propre 1 dans \(\mathrm{SO}_3(\mathbb{R})\)
Soit \(A \in \mathrm{O}_3(\mathbb{R})\) avec \(\det(A) = 1\). Montrer que \(1\) est valeur propre de \(A\). En déduire une interprétation géométrique.
Voir la correction
On calcule \(\det(A – I_3)\). Puisque \(A\) est orthogonale, \({}^tA = A^{-1}\), d’où :
\(\det(A – I_3) = \det({}^tA)\,\det(A – I_3) = \det\big({}^tA(A – I_3)\big) = \det(I_3 – {}^tA)\)
Or \(\det(I_3 – {}^tA) = \det\big({}^t(I_3 – A)\big) = \det(I_3 – A)\). Et :
\(\det(I_3 – A) = (-1)^3 \det(A – I_3) = -\det(A – I_3)\)
En combinant, et en utilisant \(\det({}^tA) = \det(A) = 1\) :
\(\det(A – I_3) = -\det(A – I_3)\)
Donc \(2\,\det(A – I_3) = 0\), soit \(\det(A – I_3) = 0\). Ainsi \(1\) est valeur propre de \(A\).
Interprétation : il existe \(u \in \mathbb{R}^3 \setminus \{0\}\) tel que \(Au = u\). Cela signifie que \(A\) fixe une droite vectorielle : c’est l’axe de rotation. Tout élément de \(\mathrm{SO}_3(\mathbb{R})\) est donc une rotation autour d’un axe (théorème d’Euler).
Exercice 7 (★★★) — Dimension impaire et valeur propre réelle
Soit \(n\) un entier impair et \(A \in \mathrm{O}_n(\mathbb{R})\). Montrer que \(A\) admet au moins une valeur propre réelle.
Voir la correction
Le polynôme caractéristique \(\chi_A(\lambda) = \det(A – \lambda I_n)\) est un polynôme de degré \(n\) impair à coefficients réels. Un tel polynôme admet toujours au moins une racine réelle \(\lambda_0 \in \mathbb{R}\) (par le théorème des valeurs intermédiaires, car \(\chi_A(\lambda) \to \pm \infty\) quand \(\lambda \to \pm \infty\)).
Puisque \(\lambda_0\) est valeur propre réelle de \(A \in \mathrm{O}_n(\mathbb{R})\), on a \(|\lambda_0| = 1\) (cf. section III.C), donc \(\lambda_0 \in \{-1, 1\}\).
Précision : on peut être plus fin. Comme \(\det(A) = \pm 1\) et que les valeurs propres complexes non réelles viennent par paires conjuguées \((e^{i\alpha}, e^{-i\alpha})\) de produit 1, le produit des valeurs propres réelles vaut \(\det(A)\). Si \(\det(A) = 1\), le nombre de valeurs propres égales à \(-1\) est pair, donc il existe aussi \(1\) comme valeur propre. Si \(\det(A) = -1\), le nombre de valeurs propres égales à \(-1\) est impair, donc \(-1\) est valeur propre.
Exercice 8 (★★★) — Étude complète d’une matrice de réflexion
Soit \(\theta \in \mathbb{R}\) et \(S_\theta = \begin{pmatrix} \cos\theta & \sin\theta \\ \sin\theta & -\cos\theta \end{pmatrix}\).
- Montrer que \(S_\theta \in \mathrm{O}_2(\mathbb{R})\) et calculer \(\det(S_\theta)\).
- Déterminer les valeurs propres et les espaces propres de \(S_\theta\).
- Interpréter géométriquement \(S_\theta\) : déterminer l’axe de réflexion en fonction de \(\theta\).
Voir la correction
1. On constate que \({}^tS_\theta = S_\theta\) (matrice symétrique). De plus :
\(S_\theta^2 = \begin{pmatrix} \cos^2\theta + \sin^2\theta & \cos\theta\sin\theta – \sin\theta\cos\theta \\ \sin\theta\cos\theta – \cos\theta\sin\theta & \sin^2\theta + \cos^2\theta \end{pmatrix} = I_2\)
Donc \({}^tS_\theta\, S_\theta = S_\theta^2 = I_2\) : \(S_\theta \in \mathrm{O}_2(\mathbb{R})\).
\(\det(S_\theta) = -\cos^2\theta – \sin^2\theta = -1\).
2. Puisque \(S_\theta^2 = I_2\), les valeurs propres vérifient \(\lambda^2 = 1\), donc \(\lambda \in \{-1, 1\}\). Comme \(\mathrm{tr}(S_\theta) = \cos\theta – \cos\theta = 0\) et que la somme des valeurs propres vaut la trace, les valeurs propres sont \(1\) et \(-1\) (chacune de multiplicité 1).
Espace propre \(E_1 = \ker(S_\theta – I_2)\) :
\(S_\theta – I_2 = \begin{pmatrix} \cos\theta – 1 & \sin\theta \\ \sin\theta & -\cos\theta – 1 \end{pmatrix}\)
En utilisant \(\cos\theta – 1 = -2\sin^2\!\displaystyle\frac{\theta}{2}\) et \(\sin\theta = 2\sin\displaystyle\frac{\theta}{2}\cos\displaystyle\frac{\theta}{2}\), la première ligne donne :
\(-2\sin^2\!\displaystyle\frac{\theta}{2}\cdot x + 2\sin\displaystyle\frac{\theta}{2}\cos\displaystyle\frac{\theta}{2}\cdot y = 0\)
Si \(\sin\displaystyle\frac{\theta}{2} \neq 0\) : \(-\sin\displaystyle\frac{\theta}{2}\cdot x + \cos\displaystyle\frac{\theta}{2}\cdot y = 0\), d’où \(E_1 = \mathrm{Vect}\!\left(\begin{pmatrix} \cos\!\displaystyle\frac{\theta}{2} \\ \sin\!\displaystyle\frac{\theta}{2} \end{pmatrix}\right)\).
Espace propre \(E_{-1} = \ker(S_\theta + I_2)\) : Un calcul analogue donne \(E_{-1} = \mathrm{Vect}\!\left(\begin{pmatrix} -\sin\!\displaystyle\frac{\theta}{2} \\ \cos\!\displaystyle\frac{\theta}{2} \end{pmatrix}\right)\).
3. L’espace propre \(E_1\) est la droite des points fixes : c’est l’axe de réflexion. Cette droite passe par l’origine et fait un angle \(\displaystyle\frac{\theta}{2}\) avec l’axe \((Ox)\). L’espace \(E_{-1}\) est la droite orthogonale à l’axe, dont les points sont envoyés sur leurs symétriques.
VII. Erreurs fréquentes et pièges classiques
Piège 1 — Confondre colonnes orthogonales et matrice orthogonale.
❌ « Les colonnes de \(A\) sont orthogonales deux à deux, donc \(A\) est orthogonale. »
Diagnostic : les colonnes doivent aussi être de norme 1. La matrice \(\begin{pmatrix} 3 & 0 \\ 0 & 4 \end{pmatrix}\) a des colonnes orthogonales, mais n’est évidemment pas orthogonale.
✅ « Les colonnes de \(A\) forment une base orthonormée, donc \(A\) est orthogonale. »
Piège 2 — Croire que \(\det(A) = 1\) toujours.
❌ « \(A\) est orthogonale donc \(\det(A) = 1\). »
Diagnostic : on a \(\det(A)^2 = 1\), ce qui donne \(\det(A) = 1\) ou \(\det(A) = -1\). Les réflexions ont un déterminant \(-1\).
✅ « \(A\) est orthogonale donc \(\det(A) \in \{-1, 1\}\). »
Piège 3 — Affirmer que \(A^2 = I_n\) pour toute matrice orthogonale.
❌ « \(A\) est orthogonale, donc \(A^2 = I_n\). »
Diagnostic : on a \({}^tA\, A = I_n\), soit \(A^{-1} = {}^tA\). Cela ne donne \(A^2 = I_n\) que si \(A = {}^tA\) (matrice symétrique). La rotation \(R_{\pi/3}\) est orthogonale mais \(R_{\pi/3}^2 = R_{2\pi/3} \neq I_2\).
✅ « \(A^2 = I_n\) seulement si \(A\) est à la fois orthogonale et symétrique (cf. exercice 5). »
Piège 4 — Oublier les valeurs propres complexes.
❌ « Les valeurs propres d’une matrice orthogonale sont \(1\) et \(-1\). »
Diagnostic : les valeurs propres réelles sont \(\pm 1\). Mais une matrice orthogonale peut avoir des valeurs propres complexes non réelles (de module 1). Par exemple, \(R_{\pi/3}\) a pour valeurs propres \(e^{i\pi/3}\) et \(e^{-i\pi/3}\).
✅ « Les valeurs propres d’une matrice orthogonale sont de module 1. Les valeurs propres réelles sont \(\pm 1\). »
VIII. Questions fréquentes
Comment savoir si une matrice est orthogonale ?
Vérifie que les colonnes de la matrice forment une famille orthonormée : chaque colonne doit être de norme 1, et deux colonnes distinctes doivent avoir un produit scalaire nul. Alternativement, calcule le produit \({}^tA\, A\) et vérifie qu’il est égal à \(I_n\).
Quelle est la valeur propre d'une matrice orthogonale ?
Les valeurs propres réelles d’une matrice orthogonale sont nécessairement \(1\) ou \(-1\). Les valeurs propres complexes sont de module 1 et apparaissent par paires conjuguées \(e^{i\alpha}\) et \(e^{-i\alpha}\). Par exemple, la rotation \(R_\theta\) a pour valeurs propres \(e^{i\theta}\) et \(e^{-i\theta}\).
Quelle est la différence entre matrice orthogonale et matrice symétrique ?
Une matrice orthogonale vérifie \({}^tA\, A = I_n\) (la transposée est l’inverse). Une matrice symétrique vérifie \({}^tA = A\) (la transposée est la matrice elle-même). Les deux notions sont indépendantes. Si une matrice est à la fois orthogonale et symétrique, alors \(A^2 = I_n\) : c’est une symétrie orthogonale.
Comment vérifier si une matrice 3×3 est orthogonale ?
La méthode est identique au cas général : vérifie que les 3 colonnes sont de norme 1 (3 calculs de norme) et que les 3 paires de colonnes distinctes sont orthogonales (3 calculs de produit scalaire). Cela fait 6 vérifications au total. C’est plus rapide que de calculer le produit \({}^tA\, A\) (qui demande de multiplier deux matrices \(3 \times 3\)).
Toute matrice orthogonale est-elle une rotation ?
Non. Une matrice orthogonale est une rotation si et seulement si son déterminant vaut \(1\) (elle appartient à \(\mathrm{SO}_n(\mathbb{R})\)). Si le déterminant vaut \(-1\), c’est une réflexion (ou plus généralement une isométrie indirecte). Par exemple, \(\begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}\) est orthogonale mais c’est une réflexion, pas une rotation.
Pourquoi dit-on matrice orthogonale alors que les colonnes sont orthonormées ?
C’est une convention historique héritée du XIXe siècle. Le terme « orthogonal » dans « matrice orthogonale » ne qualifie pas seulement les colonnes (qui sont effectivement orthonormées, pas juste orthogonales), mais la transformation associée : une isométrie qui préserve l’orthogonalité. Certains auteurs utilisent « matrice orthonormale », mais le terme standard en CPGE et dans la littérature internationale est « matrice orthogonale ».
IX. Pour aller plus loin
Tu maîtrises maintenant la définition, les caractérisations et les propriétés algébriques des matrices orthogonales. Pour approfondir et consolider :
- Les matrices en mathématiques : cours complet — la page pilier du cocon, pour une vue d’ensemble
- Transposée d’une matrice — propriétés détaillées de la transposition, qui est au cœur de la définition
- Matrice symétrique et antisymétrique — les matrices symétriques réelles sont diagonalisables dans une base orthonormée (théorème spectral)
- Diagonalisation d’une matrice — méthode complète de diagonalisation, incluant la diagonalisation en base orthonormée
- Valeurs propres et vecteurs propres — calcul des éléments propres, en lien direct avec les matrices orthogonales
- Exercices corrigés sur les matrices — pour t’entraîner davantage avec des exercices transversaux et des problèmes de concours
- Matrice de changement de base — le lien entre matrices de passage orthogonales et changements de bases orthonormées