Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec le niveau d’exigence attendu en classe préparatoire. Découvrir le professeur

Parmi les opérations fondamentales sur les matrices, la transposition occupe une place centrale en algèbre linéaire. Elle intervient dans la définition des matrices symétriques, des matrices orthogonales, dans le calcul du produit scalaire et dans presque toutes les démonstrations aux concours. Ce cours présente la définition formelle, les 8 propriétés algébriques essentielles (avec démonstrations exigibles), la décomposition en partie symétrique et antisymétrique, et 8 exercices corrigés progressifs — du calcul direct aux problèmes de concours. Conforme au programme officiel des CPGE scientifiques (MPSI, PCSI, MP, PC, PSI) 2025-2026.

I. Définition et premiers exemples

L’idée de la transposition est géométriquement simple : on échange les lignes et les colonnes d’une matrice. Plus précisément, le coefficient situé en ligne \(i\), colonne \(j\) vient se placer en ligne \(j\), colonne \(i\). Formalisons cette opération.

A. Définition formelle

Définition — Transposée d’une matrice

Soit \(\mathbb{K}\) un corps (\(\mathbb{R}\) ou \(\mathbb{C}\)) et \(A = (a_{i,j}) \in \mathcal{M}_{m,n}(\mathbb{K})\). La transposée de \(A\), notée \(A^\top\), est la matrice de \(\mathcal{M}_{n,m}(\mathbb{K})\) définie par :

\(\displaystyle \forall\,(i,j) \in \{1,\ldots,n\} \times \{1,\ldots,m\}, \quad (A^\top)_{i,j} = a_{j,i}\)

Notation. Selon les ouvrages, la transposée se note \(A^\top\), \(A^T\) ou \({}^t\!A\). Ces trois notations sont équivalentes et toutes acceptées en concours. On utilise ici \(A^\top\).

Autrement dit, la transposition transforme les lignes de \(A\) en colonnes de \(A^\top\), et inversement. Si \(A\) est de taille \(m \times n\), alors \(A^\top\) est de taille \(n \times m\).

Schéma illustrant la transposition d'une matrice 2×3. À gauche, la matrice A avec les lignes colorées (ligne 1 en bleu #

B. Exemples fondamentaux

Exemple 1 — Matrice rectangulaire. Soit la matrice \(A \in \mathcal{M}_{2,3}(\mathbb{R})\) :

\(\displaystyle A = \begin{pmatrix} 1 & 4 & 7 \\ 2 & 5 & 8 \end{pmatrix}\)

Alors \(A^\top \in \mathcal{M}_{3,2}(\mathbb{R})\) et :

\(\displaystyle A^\top = \begin{pmatrix} 1 & 2 \\ 4 & 5 \\ 7 & 8 \end{pmatrix}\)

Observe que la première ligne \((1, 4, 7)\) de \(A\) est devenue la première colonne de \(A^\top\), et la seconde ligne \((2, 5, 8)\) est devenue la seconde colonne.

Exemple 2 — Matrice carrée. Soit \(B \in \mathcal{M}_3(\mathbb{R})\) :

\(\displaystyle B = \begin{pmatrix} 1 & 0 & 3 \\ -2 & 5 & 1 \\ 4 & -1 & 7 \end{pmatrix} \qquad \Longrightarrow \qquad B^\top = \begin{pmatrix} 1 & -2 & 4 \\ 0 & 5 & -1 \\ 3 & 1 & 7 \end{pmatrix}\)

Pour une matrice carrée, la transposition revient à effectuer une symétrie par rapport à la diagonale principale (les coefficients diagonaux \(b_{i,i}\) restent en place).

Exemple 3 — Vecteurs colonnes et lignes. Un vecteur colonne \(x = \begin{pmatrix} x_1 \\ \vdots \\ x_n \end{pmatrix} \in \mathcal{M}_{n,1}(\mathbb{K})\) a pour transposée le vecteur ligne \(x^\top = \begin{pmatrix} x_1 & \cdots & x_n \end{pmatrix} \in \mathcal{M}_{1,n}(\mathbb{K})\). Cette observation est fondamentale : elle permet d’écrire le produit scalaire canonique sous forme matricielle (voir section IV).


II. Propriétés algébriques de la transposition

La transposition vérifie un ensemble de propriétés qui en font un outil omniprésent en algèbre linéaire. Les voici, regroupées et démontrées.

A. Involution et linéarité

Propriété 1 — Involution

Pour toute matrice \(A \in \mathcal{M}_{m,n}(\mathbb{K})\) :

\(\displaystyle (A^\top)^\top = A\)

Démonstration. Pour tout \((i,j)\), \(\big((A^\top)^\top\big)_{i,j} = (A^\top)_{j,i} = a_{i,j}\). Donc \((A^\top)^\top = A\). ∎

Conséquence immédiate : la transposition est une bijection de \(\mathcal{M}_{m,n}(\mathbb{K})\) sur \(\mathcal{M}_{n,m}(\mathbb{K})\), d’inverse elle-même.

Propriété 2 — Linéarité

Pour toutes matrices \(A, B \in \mathcal{M}_{m,n}(\mathbb{K})\) et tout scalaire \(\lambda \in \mathbb{K}\) :

\(\displaystyle (A + B)^\top = A^\top + B^\top \qquad \text{et} \qquad (\lambda A)^\top = \lambda\, A^\top\)

Autrement dit, l’application \(A \mapsto A^\top\) est un isomorphisme linéaire de \(\mathcal{M}_{m,n}(\mathbb{K})\) sur \(\mathcal{M}_{n,m}(\mathbb{K})\).

Démonstration. Pour tout \((i,j)\) :

\(\displaystyle \big((A+B)^\top\big)_{i,j} = (A+B)_{j,i} = a_{j,i} + b_{j,i} = (A^\top)_{i,j} + (B^\top)_{i,j}\)

La preuve de \((\lambda A)^\top = \lambda A^\top\) est analogue. La bijectivité résulte de l’involution. ∎

B. Transposée d’un produit de matrices

C’est la propriété la plus importante de ce cours — et celle qui piège le plus souvent en concours.

Propriété 3 ⋆ — Transposée d’un produit (exigible)

Pour toutes matrices \(A \in \mathcal{M}_{m,n}(\mathbb{K})\) et \(B \in \mathcal{M}_{n,p}(\mathbb{K})\) :

\(\displaystyle (AB)^\top = B^\top A^\top\)

La transposition inverse l’ordre des facteurs.

Attention ! On n’a pas \((AB)^\top = A^\top B^\top\). L’inversion de l’ordre est essentielle. C’est l’erreur la plus fréquente aux concours sur ce thème (voir section VI).

Démonstration ⋆ (exigible). Vérifions d’abord la compatibilité des tailles : \(AB \in \mathcal{M}_{m,p}(\mathbb{K})\) donc \((AB)^\top \in \mathcal{M}_{p,m}(\mathbb{K})\). Par ailleurs, \(B^\top \in \mathcal{M}_{p,n}(\mathbb{K})\) et \(A^\top \in \mathcal{M}_{n,m}(\mathbb{K})\), donc le produit \(B^\top A^\top \in \mathcal{M}_{p,m}(\mathbb{K})\) est bien défini et de même taille. ✓

Calculons le coefficient \((i,j)\) de chaque membre, pour \((i,j) \in \{1,\ldots,p\} \times \{1,\ldots,m\}\) :

\(\displaystyle \big((AB)^\top\big)_{i,j} = (AB)_{j,i} = \sum_{k=1}^{n} a_{j,k}\, b_{k,i}\) \(\displaystyle (B^\top A^\top)_{i,j} = \sum_{k=1}^{n} (B^\top)_{i,k}\,(A^\top)_{k,j} = \sum_{k=1}^{n} b_{k,i}\, a_{j,k} = \sum_{k=1}^{n} a_{j,k}\, b_{k,i}\)

Les deux expressions sont identiques. Donc \((AB)^\top = B^\top A^\top\). ∎

Généralisation à \(p\) facteurs. Par récurrence immédiate :

\(\displaystyle (A_1 A_2 \cdots A_p)^\top = A_p^\top \cdots A_2^\top A_1^\top\)

On inverse l’ordre de tous les facteurs — exactement comme pour l’inversion d’un produit : \((A_1 \cdots A_p)^{-1} = A_p^{-1} \cdots A_1^{-1}\). L’analogie est structurelle : la transposition et l’inversion sont deux anti-morphismes.

C. Transposée de l’inverse

Propriété 4 — Transposée et inversibilité

Soit \(A \in \mathrm{GL}_n(\mathbb{K})\) (matrice inversible). Alors \(A^\top\) est inversible et :

\(\displaystyle (A^{-1})^\top = (A^\top)^{-1}\)

Les opérations « transposer » et « inverser » commutent.

Démonstration. On transpose l’identité \(AA^{-1} = I_n\) :

\(\displaystyle (AA^{-1})^\top = I_n^\top \quad \Longrightarrow \quad (A^{-1})^\top A^\top = I_n\)

de même avec \(A^{-1}A = I_n\) :

\(\displaystyle A^\top (A^{-1})^\top = I_n\)

Donc \((A^{-1})^\top\) est l’inverse de \(A^\top\). ∎

D. Lien avec le déterminant, la trace et le rang

La transposition préserve les trois grands invariants matriciels.

Propriété 5 ⋆ — Déterminant (exigible)

Pour toute matrice \(A \in \mathcal{M}_n(\mathbb{K})\) :

\(\displaystyle \det(A^\top) = \det(A)\)

La démonstration repose sur la formule de Leibniz du déterminant et sur le fait que la somme sur toutes les permutations \(\sigma \in \mathfrak{S}_n\) est inchangée lorsqu’on remplace \(\sigma\) par \(\sigma^{-1}\) (qui a la même signature). Elle est détaillée dans le cours sur le déterminant.

Propriété 6 — Trace

Pour toute matrice \(A \in \mathcal{M}_n(\mathbb{K})\) :

\(\displaystyle \mathrm{tr}(A^\top) = \mathrm{tr}(A)\)

Démonstration. Immédiate : \(\mathrm{tr}(A^\top) = \sum_{i=1}^n (A^\top)_{i,i} = \sum_{i=1}^n a_{i,i} = \mathrm{tr}(A)\), puisque les coefficients diagonaux sont inchangés par la transposition. ∎

Pour un traitement complet de la trace d’une matrice, consulte la page dédiée.

Propriété 7 — Rang

Pour toute matrice \(A \in \mathcal{M}_{m,n}(\mathbb{K})\) :

\(\displaystyle \mathrm{rg}(A^\top) = \mathrm{rg}(A)\)

Démonstration. Le rang d’une matrice est le rang de la famille de ses vecteurs colonnes. Or les colonnes de \(A^\top\) sont les lignes de \(A\). Il suffit donc de montrer que le rang de la famille des lignes est égal au rang de la famille des colonnes. C’est une conséquence directe de la réduction par pivot de Gauss : les opérations élémentaires sur les lignes ne changent pas le rang des colonnes, et la forme échelonnée fait apparaître le même entier pour les deux familles. ∎

Propriété 8 — Noyau

Pour toute matrice \(A \in \mathcal{M}_{m,n}(\mathbb{R})\) :

\(\displaystyle \ker(A^\top A) = \ker(A)\)

En particulier, \(\mathrm{rg}(A^\top A) = \mathrm{rg}(A)\).

Ce résultat, moins classique, est un incontournable des concours. Sa démonstration est proposée en exercice 6.

Voici un tableau récapitulatif des 8 propriétés :

Récapitulatif des propriétés de la transposition
# Propriété Formule Exigible ⋆
1 Involution \((A^\top)^\top = A\) Oui
2 Linéarité \((A+B)^\top = A^\top + B^\top\), \((\lambda A)^\top = \lambda A^\top\) Oui
3 Produit \((AB)^\top = B^\top A^\top\) Oui
4 Inverse \((A^{-1})^\top = (A^\top)^{-1}\) Oui
5 Déterminant \(\det(A^\top) = \det(A)\) Oui
6 Trace \(\mathrm{tr}(A^\top) = \mathrm{tr}(A)\) Non
7 Rang \(\mathrm{rg}(A^\top) = \mathrm{rg}(A)\) Non
8 Noyau \(\ker(A^\top A) = \ker(A)\) Non (mais classique)
🎁 EN BONUS

Les 8 propriétés de la transposée sur une fiche PDF

Définition, formules clés, démonstrations exigibles et décomposition S + A — tout le cours en une page recto-verso à garder sous la main.

📄 Télécharger la fiche PDF

Idéal pour réviser avant un DS ou un concours — pas besoin de tout recopier.


III. Transposée et types de matrices

La transposition est le critère de classification de plusieurs familles de matrices fondamentales en algèbre linéaire. Cette section synthétise ces liens et présente un résultat puissant : toute matrice carrée se décompose de manière unique en somme d’une partie symétrique et d’une partie antisymétrique.

A. Matrices symétriques et antisymétriques

Définition — Matrice symétrique

Soit \(A \in \mathcal{M}_n(\mathbb{K})\). On dit que \(A\) est symétrique si \(A^\top = A\), c’est-à-dire si \(a_{i,j} = a_{j,i}\) pour tout \((i,j)\).

L’ensemble des matrices symétriques est noté \(\mathcal{S}_n(\mathbb{K})\). C’est un sous-espace vectoriel de \(\mathcal{M}_n(\mathbb{K})\) de dimension \(\displaystyle\frac{n(n+1)}{2}\).

Définition — Matrice antisymétrique

On dit que \(A \in \mathcal{M}_n(\mathbb{K})\) est antisymétrique si \(A^\top = -A\), c’est-à-dire si \(a_{i,j} = -a_{j,i}\) pour tout \((i,j)\). En particulier, les coefficients diagonaux sont nuls.

L’ensemble des matrices antisymétriques est noté \(\mathcal{A}_n(\mathbb{K})\). C’est un sous-espace vectoriel de \(\mathcal{M}_n(\mathbb{K})\) de dimension \(\displaystyle\frac{n(n-1)}{2}\).

Exemple. Dans \(\mathcal{M}_3(\mathbb{R})\) :

\(\displaystyle S = \begin{pmatrix} 2 & 1 & 4 \\ 1 & 0 & -3 \\ 4 & -3 & 5 \end{pmatrix}\) est symétrique (\(S^\top = S\))

\(\displaystyle A = \begin{pmatrix} 0 & 3 & -1 \\ -3 & 0 & 2 \\ 1 & -2 & 0 \end{pmatrix}\) est antisymétrique (\(A^\top = -A\), diagonale nulle)

Pour un traitement approfondi de ces familles (théorème spectral, diagonalisation en base orthonormée), consulte le cours sur les matrices symétriques et antisymétriques.

B. Décomposition en partie symétrique et antisymétrique

C’est l’un des résultats les plus élégants liés à la transposition, et un classique absolu de concours.

Théorème — Décomposition \(\mathcal{S}_n \oplus \mathcal{A}_n\)

Soit \(\mathbb{K}\) un corps de caractéristique \(\neq 2\). Pour toute matrice \(M \in \mathcal{M}_n(\mathbb{K})\), il existe un unique couple \((S, A) \in \mathcal{S}_n(\mathbb{K}) \times \mathcal{A}_n(\mathbb{K})\) tel que :

\(\displaystyle M = S + A\)

avec :

\(\displaystyle S = \displaystyle\frac{1}{2}(M + M^\top) \qquad \text{et} \qquad A = \displaystyle\frac{1}{2}(M – M^\top)\)

En termes d’espaces vectoriels : \(\mathcal{M}_n(\mathbb{K}) = \mathcal{S}_n(\mathbb{K}) \oplus \mathcal{A}_n(\mathbb{K})\).

Démonstration ⋆.

Existence. Posons \(S = \displaystyle\frac{1}{2}(M + M^\top)\) et \(A = \displaystyle\frac{1}{2}(M – M^\top)\). Vérifions :

  • \(S\) est symétrique : \(S^\top = \displaystyle\frac{1}{2}(M^\top + (M^\top)^\top) = \displaystyle\frac{1}{2}(M^\top + M) = S\). ✓
  • \(A\) est antisymétrique : \(A^\top = \displaystyle\frac{1}{2}(M^\top – (M^\top)^\top) = \displaystyle\frac{1}{2}(M^\top – M) = -A\). ✓
  • \(S + A = \displaystyle\frac{1}{2}(M + M^\top) + \displaystyle\frac{1}{2}(M – M^\top) = M\). ✓

Unicité. Supposons \(M = S^\prime + A^\prime\) avec \(S^\prime \in \mathcal{S}_n\) et \(A^\prime \in \mathcal{A}_n\). En transposant : \(M^\top = S^\prime – A^\prime\). Par somme : \(M + M^\top = 2S^\prime\), d’où \(S^\prime = S\). Par différence : \(A^\prime = A\). ∎

Exemple — Décomposition d’une matrice 3×3.

Soit \(M = \begin{pmatrix} 1 & 2 & 3 \\ 0 & 4 & 5 \\ -1 & 6 & 7 \end{pmatrix}\). Alors \(M^\top = \begin{pmatrix} 1 & 0 & -1 \\ 2 & 4 & 6 \\ 3 & 5 & 7 \end{pmatrix}\).

\(\displaystyle S = \displaystyle\frac{1}{2}(M + M^\top) = \begin{pmatrix} 1 & 1 & 1 \\ 1 & 4 & \displaystyle\frac{11}{2} \\ 1 & \displaystyle\frac{11}{2} & 7 \end{pmatrix} \qquad A = \displaystyle\frac{1}{2}(M – M^\top) = \begin{pmatrix} 0 & 1 & 2 \\ -1 & 0 & -\displaystyle\frac{1}{2} \\ -2 & \displaystyle\frac{1}{2} & 0 \end{pmatrix}\)

Vérification : \(S^\top = S\) ✓, \(A^\top = -A\) ✓, \(S + A = M\) ✓.

Vérification de dimension. \(\dim \mathcal{S}_n + \dim \mathcal{A}_n = \displaystyle\frac{n(n+1)}{2} + \displaystyle\frac{n(n-1)}{2} = n^2 = \dim \mathcal{M}_n\) ✓. La somme directe est bien cohérente.

C. Matrices orthogonales

Définition — Matrice orthogonale

Soit \(A \in \mathcal{M}_n(\mathbb{R})\). On dit que \(A\) est orthogonale si :

\(\displaystyle A^\top A = I_n\)

Autrement dit, \(A\) est inversible et \(A^{-1} = A^\top\) : la transposée est l’inverse.

Les matrices orthogonales forment le groupe orthogonal \(\mathrm{O}_n(\mathbb{R})\). Elles conservent le produit scalaire canonique et la norme euclidienne, ce qui signifie qu’elles représentent les isométries de \(\mathbb{R}^n\).

Pour un développement complet (propriétés, exemples de rotations et réflexions, sous-groupe \(\mathrm{SO}_n\)), consulte le cours sur les matrices orthogonales.

Exemple. La matrice de rotation d’angle \(\theta\) dans \(\mathbb{R}^2\) :

\(\displaystyle R_\theta = \begin{pmatrix} \cos\theta & -\sin\theta \\ \sin\theta & \cos\theta \end{pmatrix}\)

est orthogonale. En effet : \(R_\theta^\top = \begin{pmatrix} \cos\theta & \sin\theta \\ -\sin\theta & \cos\theta \end{pmatrix} = R_{-\theta}\) et \(R_\theta^\top R_\theta = R_{-\theta} R_\theta = R_0 = I_2\). ✓

Logo-excellence-maths
Tu veux progresser rapidement en maths sup ?
Travaille avec un professeur diplômé de Polytechnique qui connaît les attentes des concours. Résultats visibles dès les premières semaines, méthode rigoureuse et bienveillante.

IV. Transposée et produit scalaire canonique

Cette section présente l’identité fondamentale qui révèle la signification géométrique profonde de la transposée. C’est un résultat rarement développé sur les pages web consacrées aux matrices, mais il est au cœur de l’algèbre bilinéaire et des espaces euclidiens.

Théorème — Caractérisation de la transposée par le produit scalaire

Soit \(A \in \mathcal{M}_n(\mathbb{R})\). Pour tous vecteurs colonnes \(x, y \in \mathbb{R}^n\) :

\(\displaystyle \langle Ax,\, y \rangle = \langle x,\, A^\top y \rangle\)

où \(\langle \cdot,\, \cdot \rangle\) désigne le produit scalaire canonique de \(\mathbb{R}^n\).

De plus, \(A^\top\) est l’unique matrice vérifiant cette identité pour tous \(x, y\).

Démonstration. Le produit scalaire canonique s’écrit matriciellement \(\langle x, y \rangle = x^\top y\). Alors :

\(\displaystyle \langle Ax,\, y \rangle = (Ax)^\top y = x^\top A^\top y = \langle x,\, A^\top y \rangle\)

La première égalité utilise la définition matricielle du produit scalaire, la seconde utilise \((AB)^\top = B^\top A^\top\), et la troisième est à nouveau la définition. ∎

Unicité. Si \(B \in \mathcal{M}_n(\mathbb{R})\) vérifie \(\langle Ax, y \rangle = \langle x, By \rangle\) pour tous \(x, y\), alors \(x^\top A^\top y = x^\top B y\) pour tous \(x, y\). En prenant \(x = e_i\) et \(y = e_j\) (vecteurs de la base canonique), on obtient \((A^\top)_{i,j} = B_{i,j}\) pour tout \((i,j)\), d’où \(B = A^\top\). ∎

Interprétation. La transposée \(A^\top\) est l’adjoint de \(A\) pour le produit scalaire canonique. En d’autres termes, « transposer \(A\) » revient à « faire passer \(A\) de l’autre côté du produit scalaire ». Cette idée se généralise en dimension infinie : l’adjoint d’un opérateur borné sur un espace de Hilbert est défini exactement par cette relation.

Une conséquence directe : si \(A\) est orthogonale (\(A^\top = A^{-1}\)), alors \(\langle Ax, Ay \rangle = \langle x, A^\top Ay \rangle = \langle x, y \rangle\). Les matrices orthogonales sont exactement les matrices qui conservent le produit scalaire.


V. Exercices corrigés

Voici 8 exercices classés par difficulté croissante : de l’application directe (★) aux problèmes de niveau concours (★★★). Chaque correction est détaillée pas à pas.

Exercice 1 — Calcul de transposée (★)

Soit \(A = \begin{pmatrix} 2 & -1 & 0 \\ 3 & 5 & -4 \end{pmatrix} \in \mathcal{M}_{2,3}(\mathbb{R})\). Déterminer \(A^\top\) et vérifier que \((A^\top)^\top = A\).

Voir la correction

On échange lignes et colonnes. La première ligne \((2, -1, 0)\) de \(A\) devient la première colonne de \(A^\top\), et la seconde ligne \((3, 5, -4)\) la seconde colonne :

\(\displaystyle A^\top = \begin{pmatrix} 2 & 3 \\ -1 & 5 \\ 0 & -4 \end{pmatrix} \in \mathcal{M}_{3,2}(\mathbb{R})\)

Vérification : \((A^\top)^\top\) s’obtient en échangeant à nouveau lignes et colonnes de \(A^\top\) :

\(\displaystyle (A^\top)^\top = \begin{pmatrix} 2 & -1 & 0 \\ 3 & 5 & -4 \end{pmatrix} = A \quad \text{✓}\)

Exercice 2 — Vérification de \((AB)^\top = B^\top A^\top\) (★)

Soient \(A = \begin{pmatrix} 1 & 2 \\ 3 & 0 \end{pmatrix}\) et \(B = \begin{pmatrix} 0 & -1 \\ 4 & 2 \end{pmatrix}\). Calculer \((AB)^\top\) et \(B^\top A^\top\) et vérifier qu’ils sont égaux.

Voir la correction

Étape 1 : calcul de \(AB\).

\(\displaystyle AB = \begin{pmatrix} 1 \times 0 + 2 \times 4 & 1 \times (-1) + 2 \times 2 \\ 3 \times 0 + 0 \times 4 & 3 \times (-1) + 0 \times 2 \end{pmatrix} = \begin{pmatrix} 8 & 3 \\ 0 & -3 \end{pmatrix}\)

Étape 2 : transposée de \(AB\).

\(\displaystyle (AB)^\top = \begin{pmatrix} 8 & 0 \\ 3 & -3 \end{pmatrix}\)

Étape 3 : calcul de \(B^\top A^\top\).

\(\displaystyle B^\top = \begin{pmatrix} 0 & 4 \\ -1 & 2 \end{pmatrix}, \qquad A^\top = \begin{pmatrix} 1 & 3 \\ 2 & 0 \end{pmatrix}\) \(\displaystyle B^\top A^\top = \begin{pmatrix} 0 \times 1 + 4 \times 2 & 0 \times 3 + 4 \times 0 \\ (-1) \times 1 + 2 \times 2 & (-1) \times 3 + 2 \times 0 \end{pmatrix} = \begin{pmatrix} 8 & 0 \\ 3 & -3 \end{pmatrix}\)

Conclusion : \((AB)^\top = B^\top A^\top\). ✓

Remarque : vérifions que \(A^\top B^\top \neq (AB)^\top\) en général :

\(\displaystyle A^\top B^\top = \begin{pmatrix} 1 & 3 \\ 2 & 0 \end{pmatrix}\begin{pmatrix} 0 & 4 \\ -1 & 2 \end{pmatrix} = \begin{pmatrix} -3 & 10 \\ 0 & 8 \end{pmatrix} \neq \begin{pmatrix} 8 & 0 \\ 3 & -3 \end{pmatrix}\)

Cela confirme que l’inversion de l’ordre est indispensable.


Exercice 3 — Décomposition symétrique-antisymétrique (★★)

Soit \(M = \begin{pmatrix} 3 & 1 & -2 \\ 0 & 5 & 4 \\ 6 & -1 & 7 \end{pmatrix}\). Écrire \(M = S + A\) avec \(S\) symétrique et \(A\) antisymétrique.

Voir la correction

Étape 1 : calculer \(M^\top\).

\(\displaystyle M^\top = \begin{pmatrix} 3 & 0 & 6 \\ 1 & 5 & -1 \\ -2 & 4 & 7 \end{pmatrix}\)

Étape 2 : calculer \(S = \displaystyle\frac{1}{2}(M + M^\top)\).

\(\displaystyle M + M^\top = \begin{pmatrix} 6 & 1 & 4 \\ 1 & 10 & 3 \\ 4 & 3 & 14 \end{pmatrix} \quad \Longrightarrow \quad S = \begin{pmatrix} 3 & \displaystyle\frac{1}{2} & 2 \\ \displaystyle\frac{1}{2} & 5 & \displaystyle\frac{3}{2} \\ 2 & \displaystyle\frac{3}{2} & 7 \end{pmatrix}\)

Étape 3 : calculer \(A = \displaystyle\frac{1}{2}(M – M^\top)\).

\(\displaystyle M – M^\top = \begin{pmatrix} 0 & 1 & -8 \\ -1 & 0 & 5 \\ 8 & -5 & 0 \end{pmatrix} \quad \Longrightarrow \quad A = \begin{pmatrix} 0 & \displaystyle\frac{1}{2} & -4 \\ -\displaystyle\frac{1}{2} & 0 & \displaystyle\frac{5}{2} \\ 4 & -\displaystyle\frac{5}{2} & 0 \end{pmatrix}\)

Vérification : \(S^\top = S\) (symétrique) ✓, \(A^\top = -A\) (antisymétrique, diagonale nulle) ✓, \(S + A = M\) ✓.


Exercice 4 — \(A^\top A\) est symétrique positive (★★)

Soit \(A \in \mathcal{M}_{m,n}(\mathbb{R})\). Montrer que la matrice \(A^\top A \in \mathcal{M}_n(\mathbb{R})\) est symétrique et positive (au sens large), c’est-à-dire : \(\forall\, x \in \mathbb{R}^n, \quad x^\top (A^\top A) x \geq 0\).

Voir la correction

Symétrie. On calcule \((A^\top A)^\top\) à l’aide de la propriété du produit :

\(\displaystyle (A^\top A)^\top = A^\top (A^\top)^\top = A^\top A\)

Donc \(A^\top A\) est symétrique. ∎

Positivité. Soit \(x \in \mathbb{R}^n\). Alors :

\(\displaystyle x^\top (A^\top A) x = (Ax)^\top (Ax) = \|Ax\|^2 \geq 0\)

La première égalité utilise \(x^\top A^\top = (Ax)^\top\) et l’associativité du produit matriciel. La seconde est la définition de la norme euclidienne au carré. ∎

Remarque : si de plus \(A\) est inversible (ce qui impose \(m \geq n\) et \(\mathrm{rg}(A) = n\)), alors \(x^\top A^\top A x = 0 \Rightarrow Ax = 0 \Rightarrow x = 0\). La matrice \(A^\top A\) est alors définie positive.


Exercice 5 — Transposée d’un produit de \(p\) matrices (★★)

Démontrer par récurrence que pour toutes matrices \(A_1, A_2, \ldots, A_p\) (de tailles compatibles) :

\(\displaystyle (A_1 A_2 \cdots A_p)^\top = A_p^\top \cdots A_2^\top A_1^\top\)
Voir la correction

Initialisation (\(p = 2\)). C’est exactement la propriété 3 : \((A_1 A_2)^\top = A_2^\top A_1^\top\). ✓

Hérédité. Supposons la propriété vraie au rang \(p \geq 2\). Soit \(P = A_1 \cdots A_p\). Alors :

\(\displaystyle (A_1 \cdots A_p A_{p+1})^\top = (P \cdot A_{p+1})^\top = A_{p+1}^\top \cdot P^\top\)

Par hypothèse de récurrence, \(P^\top = A_p^\top \cdots A_1^\top\). Donc :

\(\displaystyle (A_1 \cdots A_{p+1})^\top = A_{p+1}^\top A_p^\top \cdots A_1^\top\)

La propriété est vraie au rang \(p+1\). ∎


Exercice 6 — \(\ker(A) = \ker(A^\top A)\) (★★★ — Incontournable)

Soit \(A \in \mathcal{M}_{m,n}(\mathbb{R})\).

  1. Montrer que \(\ker(A) \subset \ker(A^\top A)\).
  2. Montrer que \(\ker(A^\top A) \subset \ker(A)\).
  3. En déduire que \(\mathrm{rg}(A^\top A) = \mathrm{rg}(A)\).
Voir la correction

1. Soit \(x \in \ker(A)\), c’est-à-dire \(Ax = 0\). Alors \(A^\top A x = A^\top(Ax) = A^\top \cdot 0 = 0\). Donc \(x \in \ker(A^\top A)\). ✓

2. Soit \(x \in \ker(A^\top A)\), c’est-à-dire \(A^\top A x = 0\). On multiplie à gauche par \(x^\top\) :

\(\displaystyle x^\top A^\top A x = 0 \quad \Longrightarrow \quad (Ax)^\top (Ax) = 0 \quad \Longrightarrow \quad \|Ax\|^2 = 0 \quad \Longrightarrow \quad Ax = 0\)

Donc \(x \in \ker(A)\). ✓

Conclusion des parties 1 et 2 : \(\ker(A) = \ker(A^\top A)\). ∎

3. Par le théorème du rang appliqué à l’application \(x \mapsto Ax\) et à \(x \mapsto A^\top A x\) (toutes deux de \(\mathbb{R}^n\) dans un espace adéquat) :

\(\displaystyle \mathrm{rg}(A) = n – \dim\ker(A) = n – \dim\ker(A^\top A) = \mathrm{rg}(A^\top A)\)

Ce résultat est fondamental : il justifie la méthode des moindres carrés en statistiques et en régression linéaire.


Exercice 7 — Noyau et image de \(\varphi : M \mapsto M + M^\top\) (★★★)

Soit \(E = \mathcal{M}_n(\mathbb{R})\) et \(\varphi : E \to E\) l’application définie par \(\varphi(M) = M + M^\top\).

  1. Montrer que \(\varphi\) est un endomorphisme de \(E\).
  2. Déterminer \(\ker(\varphi)\) et \(\mathrm{Im}(\varphi)\).
  3. Vérifier le théorème du rang.
Voir la correction

1. Linéarité. Pour \(M, N \in E\) et \(\lambda \in \mathbb{R}\) :

\(\displaystyle \varphi(M + \lambda N) = (M + \lambda N) + (M + \lambda N)^\top = (M + M^\top) + \lambda(N + N^\top) = \varphi(M) + \lambda\,\varphi(N)\)

Donc \(\varphi \in \mathcal{L}(E)\). ✓

2a. Noyau. \(M \in \ker(\varphi) \iff M + M^\top = 0 \iff M^\top = -M \iff M \in \mathcal{A}_n(\mathbb{R})\).

Donc \(\ker(\varphi) = \mathcal{A}_n(\mathbb{R})\), l’espace des matrices antisymétriques. ∎

2b. Image. Pour \(M \in E\), posons \(S = \varphi(M) = M + M^\top\). Alors \(S^\top = M^\top + M = S\), donc \(S \in \mathcal{S}_n(\mathbb{R})\). Cela montre \(\mathrm{Im}(\varphi) \subset \mathcal{S}_n(\mathbb{R})\).

Réciproquement, si \(S \in \mathcal{S}_n(\mathbb{R})\), alors \(\varphi\!\left(\displaystyle\frac{1}{2}S\right) = \displaystyle\frac{1}{2}S + \displaystyle\frac{1}{2}S^\top = \displaystyle\frac{1}{2}S + \displaystyle\frac{1}{2}S = S\). Donc \(\mathcal{S}_n(\mathbb{R}) \subset \mathrm{Im}(\varphi)\).

Conclusion : \(\mathrm{Im}(\varphi) = \mathcal{S}_n(\mathbb{R})\). ∎

3. Théorème du rang.

\(\displaystyle \dim\ker(\varphi) + \dim\mathrm{Im}(\varphi) = \displaystyle\frac{n(n-1)}{2} + \displaystyle\frac{n(n+1)}{2} = n^2 = \dim E \quad \text{✓}\)

Exercice 8 — Projection orthogonale et transposée (★★★)

Soit \(M \in \mathcal{M}_n(\mathbb{R})\) vérifiant \(M^2 = M\) (projecteur) et \(M^\top = M\) (symétrique). Montrer que \(M\) est la matrice (dans la base canonique) d’une projection orthogonale, c’est-à-dire que \(\mathrm{Im}(M) \perp \ker(M)\).

Voir la correction

Rappel : \(M^2 = M\) signifie que \(M\) est un projecteur, donc \(\mathbb{R}^n = \mathrm{Im}(M) \oplus \ker(M)\).

Montrons que \(\mathrm{Im}(M) \perp \ker(M)\). Soient \(u \in \mathrm{Im}(M)\) et \(v \in \ker(M)\). On peut écrire \(u = Mw\) pour un certain \(w \in \mathbb{R}^n\), et \(Mv = 0\).

Calculons le produit scalaire :

\(\displaystyle \langle u, v \rangle = \langle Mw, v \rangle = \langle w, M^\top v \rangle = \langle w, Mv \rangle = \langle w, 0 \rangle = 0\)

La deuxième égalité utilise l’identité \(\langle Ax, y \rangle = \langle x, A^\top y \rangle\) (section IV), et la troisième le fait que \(M^\top = M\).

Donc \(\mathrm{Im}(M) \perp \ker(M)\) : la projection est orthogonale. ∎

Remarque : la réciproque est vraie. Toute matrice de projection orthogonale est symétrique et idempotente. Ce résultat est un grand classique des concours (X, Mines-Ponts, Centrale).

Tu veux t’entraîner davantage ? Découvre nos exercices corrigés sur les matrices, avec des problèmes type concours classés par difficulté.


VI. Erreurs fréquentes et pièges classiques

Les erreurs sur la transposition sont souvent des fautes « bêtes », mais elles coûtent cher en concours parce qu’elles se propagent dans toute la suite du calcul. Voici les plus fréquentes, avec le format copie fautive que tu peux rencontrer en DS ou en épreuve.

Piège n°1 — Oublier l’inversion de l’ordre dans le produit

❌ Copie fautive : « On a \((AB)^\top = A^\top B^\top\). »

Diagnostic : l’étudiant applique la transposition « facteur par facteur », comme la linéarité. Mais la transposition d’un produit n’est pas le produit des transposées : c’est un anti-morphisme.

✅ Correction : \((AB)^\top = B^\top A^\top\). L’ordre est inversé. La même inversion vaut pour \(p\) facteurs.

Piège n°2 — Confondre transposée et inverse

❌ Copie fautive : « Comme \(A^\top A = I_n\), on en déduit que \(A^\top = A^{-1}\) pour toute matrice \(A\). »

Diagnostic : l’identité \(A^\top = A^{-1}\) ne vaut que pour les matrices orthogonales. Pour une matrice générale, la transposée n’a rien à voir avec l’inverse.

✅ Correction : \(A^\top = A^{-1} \iff A \in \mathrm{O}_n(\mathbb{R})\). En général, \(A^\top \neq A^{-1}\). Par exemple, \(A = \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}\) donne \(A^\top = \begin{pmatrix} 1 & 0 \\ 1 & 1 \end{pmatrix} \neq A^{-1} = \begin{pmatrix} 1 & -1 \\ 0 & 1 \end{pmatrix}\).

Piège n°3 — Oublier le changement de dimensions

❌ Copie fautive : « Soit \(A \in \mathcal{M}_{2,3}(\mathbb{R})\). Calculons \(A A^\top \in \mathcal{M}_{2,3}(\mathbb{R})\). »

Diagnostic : si \(A \in \mathcal{M}_{m,n}\), alors \(A^\top \in \mathcal{M}_{n,m}\). Le produit \(AA^\top \in \mathcal{M}_{m,m}\) est une matrice carrée de taille \(m\), et \(A^\top A \in \mathcal{M}_{n,n}\) est carrée de taille \(n\).

✅ Correction : ici \(A \in \mathcal{M}_{2,3}\) donc \(AA^\top \in \mathcal{M}_{2,2}(\mathbb{R})\) et \(A^\top A \in \mathcal{M}_{3,3}(\mathbb{R})\). Toujours vérifier les tailles avant de poser un calcul.

Piège n°4 — Écrire \(\det(A^\top) = -\det(A)\)

❌ Copie fautive : « Puisque la transposition échange lignes et colonnes, on a \(\det(A^\top) = -\det(A)\). »

Diagnostic : confusion avec le signe introduit par l’échange de deux lignes (qui change le signe du déterminant). La transposition n’est pas un échange de deux lignes : c’est une opération globale sur toute la matrice.

✅ Correction : \(\det(A^\top) = \det(A)\) (sans signe moins). C’est un résultat fondamental, démontré dans le cours sur le déterminant.


VII. Questions fréquentes

Comment faire la transposée d'une matrice ?

Pour transposer une matrice \(A = (a_{i,j})\) de taille \(m \times n\), on échange les lignes et les colonnes : le coefficient situé en ligne \(i\), colonne \(j\) vient en ligne \(j\), colonne \(i\). La matrice \(A^\top\) obtenue est de taille \(n \times m\). Concrètement, la première ligne de \(A\) devient la première colonne de \(A^\top\), et ainsi de suite.

Quelles sont les propriétés d'une matrice transposée ?

Les 8 propriétés fondamentales sont : (1) involution \((A^\top)^\top = A\), (2) linéarité \((A+B)^\top = A^\top + B^\top\) et \((\lambda A)^\top = \lambda A^\top\), (3) produit \((AB)^\top = B^\top A^\top\) (ordre inversé), (4) inverse \((A^{-1})^\top = (A^\top)^{-1}\), (5) déterminant \(\det(A^\top) = \det(A)\), (6) trace \(\mathrm{tr}(A^\top) = \mathrm{tr}(A)\), (7) rang \(\mathrm{rg}(A^\top) = \mathrm{rg}(A)\), (8) noyau \(\ker(A^\top A) = \ker(A)\).

Pourquoi transposer une matrice ?

La transposition est indispensable pour : (1) définir les matrices symétriques (\(A^\top = A\)) et orthogonales (\(A^\top A = I\)), (2) écrire le produit scalaire sous forme matricielle \(\langle x, y \rangle = x^\top y\), (3) formuler les problèmes de moindres carrés en statistiques (\(A^\top A \hat{x} = A^\top b\)), (4) démontrer de nombreux théorèmes en algèbre bilinéaire et en réduction des endomorphismes.

Quelle est la différence entre transposée et inverse d'une matrice ?

La transposée \(A^\top\) échange lignes et colonnes — elle existe pour toute matrice (même rectangulaire). L’inverse \(A^{-1}\) n’existe que pour les matrices carrées inversibles (déterminant non nul). En général, \(A^\top \neq A^{-1}\). L’égalité \(A^\top = A^{-1}\) caractérise exactement les matrices orthogonales.

Comment montrer que tr(AB) = tr(BA) ?

On utilise la définition de la trace et l’interversion des sommes :

\(\displaystyle \mathrm{tr}(AB) = \sum_{i=1}^n (AB)_{i,i} = \sum_{i=1}^n \sum_{j=1}^n a_{i,j}\,b_{j,i} = \sum_{j=1}^n \sum_{i=1}^n b_{j,i}\,a_{i,j} = \sum_{j=1}^n (BA)_{j,j} = \mathrm{tr}(BA)\)

L’astuce est de remarquer que la double somme \(\sum_i \sum_j\) de scalaires peut être réordonnée librement. Pour un traitement complet, consulte le cours sur la trace d’une matrice.

La transposée conserve-t-elle les valeurs propres d'une matrice ?

Oui. Les valeurs propres de \(A\) et de \(A^\top\) sont identiques (avec les mêmes multiplicités). En effet, \(\det(A^\top – \lambda I) = \det((A – \lambda I)^\top) = \det(A – \lambda I)\), donc \(A\) et \(A^\top\) ont le même polynôme caractéristique. Attention cependant : les vecteurs propres sont en général différents.


VIII. Pour aller plus loin

Tu maîtrises maintenant la transposition et ses propriétés fondamentales. Pour approfondir les concepts liés :

Logo-excellence-maths
Prêt à viser les meilleures notes en prépa ?
Un professeur diplômé de Polytechnique t'accompagne chaque semaine. Méthode structurée, suivi personnalisé — tes résultats progressent dès le premier mois.