Rédigé et vérifié par un professeur diplômé de l’École Polytechnique. Découvrir le professeur

Le sujet de Mathématiques Approfondies ESSEC/HEC 2026 (code 282, filière ECG voie générale) a été proposé le 23 avril 2026. D’une durée de 4 heures, sans calculatrice, il se compose de quatre parties articulées autour d’un fil conducteur ambitieux : les matrices de permutation, les matrices bistochastiques, les fonctions Schur-convexes et les fonctions spectrales, culminant avec les théorèmes de Davis et de Fan. Le sujet mêle algèbre linéaire, analyse multivariée et programmation Python, avec une progression de difficulté nette entre les parties I-II (abordables) et les parties III-IV (exigeantes). Un sujet dense et structuré, globalement d’un niveau élevé.

Synthèse du sujet
Partie du sujetThèmeNiveauNotions mobilisées
Partie I – Préliminaires (Q1-6)Matrices de permutation et triAccessiblePermutations, matrices orthogonales, récurrence, Python
Partie II – Matrices bistochastiques (Q7-10)Birkhoff-Von Neumann en basses dimensionsÉlevéMatrices bistochastiques, décomposition convexe, algorithme de Sinkhorn
Partie III – Fonctions symétriques et S-convexes (Q11-21)Schur-convexitéÉlevéFonctions symétriques, convexité, dérivées partielles, inégalité de Jensen
Partie IV – Fonctions spectrales (Q22-30)Théorèmes de Davis et de FanTrès élevéValeurs propres, diagonalisation orthogonale, inégalités spectrales

Le sujet intégral en PDF

L’énoncé complet tel qu’il a été distribué en salle d’examen.

📄 Télécharger le sujet (PDF)
🎁 EN BONUS

Correction complète et détaillée du sujet

Question par question, avec méthodes, calculs et conseils.

📄 Télécharger la correction (PDF)

Disponible immédiatement après inscription email.


Structure et thèmes du sujet

Partie I – Préliminaires (Q1-6)

Cette partie installe le cadre de tout le sujet. On y définit les matrices de permutation \(P_\sigma\) associées à une permutation \(\sigma \in \mathcal{S}_n\), puis on établit leurs propriétés fondamentales : l’endomorphisme canonique \(\phi_\sigma\) envoie \(e_j\) sur \(e_{\sigma(j)}\) (Q1), le produit \(P_\sigma P_\tau = P_{\sigma \circ \tau}\) (Q2), et le caractère orthogonal de ces matrices orthogonales (Q3). La question 4 demande une récurrence classique prouvant l’existence d’une permutation de tri décroissant, puis la question 5 établit l’unicité de cette permutation sous certaines hypothèses. La question 6 conclut par un programme Python de tri par sélection.

Partie II – Matrices bistochastiques et Birkhoff-Von Neumann (Q7-10)

On entre dans le cœur du sujet avec la notion de matrice bistochastique : coefficients positifs, somme de chaque ligne et de chaque colonne égale à 1. L’objectif est de démontrer le théorème de Birkhoff-Von Neumann en dimensions 2 et 3 : toute matrice bistochastique est une combinaison convexe de matrices de permutation. La question 7 pose les bases (matrices orthostochastiques et de permutation sont bistochastiques, avec un contre-exemple pour la réciproque en dimension 3). La question 8 traite le cas \(n = 2\), la question 9 le cas \(n = 3\) avec une décomposition explicite. La question 10 propose l’implémentation Python de l’algorithme de Sinkhorn pour construire numériquement une matrice bistochastique par normalisation alternée lignes/colonnes.

Partie III – Fonctions symétriques et S-convexes (Q11-21)

Cette partie développe la théorie des fonctions symétriques (invariantes par permutation des variables) et des fonctions S-convexes (Schur-convexes), c’est-à-dire décroissantes pour l’ordre de majorisation. On caractérise les fonctions symétriques via les matrices de permutation (Q12) et via les vecteurs ordonnés de \(H_n\) (Q13). On étudie des exemples (Q14), puis les relations entre dérivées partielles de fonctions symétriques (Q15). La question 16 montre que toute fonction S-convexe est symétrique, la question 17 établit une inégalité de type Jensen pour les fonctions convexes, et la question 18 en déduit que symétrique + convexe implique S-convexe. Les questions 19-20 établissent la condition de Schur sur les dérivées partielles, et la question 21 caractérise la S-convexité d’une fonction séparable \(f(x) = \sum h(x_k)\).

Partie IV – Fonctions spectrales, Davis et Fan (Q22-30)

La partie la plus ambitieuse porte sur les fonctions spectrales : des applications de l’espace des matrices symétriques \(\mathcal{S}_n(\mathbb{R})\) dans \(\mathbb{R}\) qui ne dépendent que des valeurs propres. Après la preuve que la trace de \(A^k\) est spectrale (Q22) et un rappel de la diagonalisation des matrices symétriques (Q24), on associe à toute fonction spectrale \(F\) une fonction \(f\) sur \(\mathbb{R}^n\) (Q25-26). Le théorème de Davis (Q27) affirme que \(F\) est convexe si \(f\) l’est. On en déduit des inégalités spectrales fondamentales, en particulier l’inégalité de Fan (Q30) : \(\langle \mathrm{diag}(A), \mathrm{diag}(B) \rangle \leq \langle \hat{\lambda}(A), \hat{\lambda}(B) \rangle\).


Notions et chapitres testés

Ce sujet mobilise un spectre large du programme d’ECG Maths Approfondies :

  • Algèbre linéaire et bilinéaire : matrices, transposée, produit matriciel, matrices orthogonales, symbole de Kronecker, produit scalaire canonique sur \(\mathbb{R}^n\), norme euclidienne.
  • Réduction des matrices symétriques : diagonalisation en base orthonormée, valeurs propres ordonnées, théorème spectral.
  • Groupes de permutations : composition, inversibilité, lien avec les matrices de permutation.
  • Analyse à plusieurs variables : dérivées partielles, fonctions de classe \(C^1\), condition de Schur.
  • Convexité : définition, inégalité de Jensen, convexité d’applications composées.
  • Récurrence : raisonnement par récurrence forte pour le tri (Q4).
  • Dénombrement : nombre de permutations de \(\{1, 2, 3\}\) (Q9a).
  • Programmation Python : tri par sélection (Q6), algorithme de Sinkhorn (Q10).

Niveau de difficulté et comparaison aux années précédentes

Ce sujet se distingue par son ambition théorique. Là où les sujets ESSEC/HEC Maths Approfondies des années 2022-2025 équilibraient généralement algèbre, probabilités et analyse, le sujet 2026 fait le choix d’un problème unique et cohérent, à dominante algèbre linéaire et analyse multivariée, sans aucune question de probabilité (hors la simulation Python de la loi uniforme dans Q10).

La partie I est plus accessible que les préliminaires habituels et constitue un bon réservoir de points. La partie II, bien que plus technique, reste faisable pour un candidat bien préparé sur la notion de combinaison convexe. En revanche, les parties III et IV élèvent nettement le niveau : la Schur-convexité et les fonctions spectrales sont des sujets rarement traités en cours, et la démonstration du théorème de Davis (Q27) nécessite une aisance avec les inégalités spectrales qui va au-delà de ce que la plupart des candidats maîtrisent.

Globalement, ce sujet est légèrement plus difficile que la moyenne des 3-4 dernières années, principalement en raison des parties III et IV. Un candidat bien préparé pouvait viser environ 60-70% du sujet en traitant intégralement les parties I-II et les premières questions des parties III-IV.


Pièges et points techniques délicats

Q2 – Composition dans le bon ordre. Le produit \(P_\sigma P_\tau\) correspond à \(P_{\sigma \circ \tau}\). Attention à ne pas inverser l’ordre de composition ! Pour le vérifier, calcule le coefficient \((P_\sigma P_\tau)_{i,j}\) à l’aide du symbole de Kronecker et identifie \(\delta_{i, \sigma(\tau(j))}\).

Q5 – Unicité de la permutation de tri. L’hypothèse cruciale est que les deux permutations \(\alpha\) et \(\beta\) trient en ordre décroissant large. L’unicité n’est pas immédiate : il faut raisonner composante par composante et utiliser le fait que si \(x_{\alpha(i)} = x_{\beta(i)}\) pour tout \(i\), alors \(\alpha = \beta\) lorsque le tri est strictement décroissant. Mais le sujet pose l’inégalité large \(\geq\), ce qui rend le résultat plus subtil ; il faut montrer \(x_{\alpha(i)} = x_{\beta(i)}\) pour tout \(i\), pas nécessairement \(\alpha = \beta\).

Q6 – Python : piège de l’indice imax. Dans la fonction permutevecteur, l’initialisation imax = i (et non imax = 0) est essentielle. On cherche le maximum sur la plage [i, n), pas sur tout le tableau. De même, le swap final concerne à la fois Y et alpha.

Q7b – Contre-exemple orthostochastique. Il faut exhiber une matrice bistochastique de taille 3 qui n’est pas orthostochastique. La matrice \(\displaystyle\frac{1}{3} J_3\) (où \(J_3\) est la matrice dont tous les coefficients valent 1) est bistochastique. Pour montrer qu’elle n’est pas orthostochastique, il faut prouver qu’il n’existe pas de matrice orthogonale \(Q\) telle que \(Q_{i,j}^2 = \displaystyle\frac{1}{3}\) pour tout \((i,j)\). C’est un argument par l’absurde qui demande de la rigueur.

Q9c-d – Décomposition en dimension 3. La forme de la matrice \(S\) en (2) impose des contraintes sur \(S_{1,1}, S_{1,2}, S_{2,1}, S_{2,2}\) (tous entre 0 et 1, sommes cohérentes). Le passage à la décomposition en combinaison convexe de matrices de permutation \(P_i\) (Q9d) est le cœur technique de Birkhoff-Von Neumann en dimension 3. N’oublie pas de vérifier que les coefficients \(\beta_i\) sont bien positifs et de somme 1.

Q19-20 – Condition de Schur. La question 19 en dimension 2 prépare la question 20 en dimension générale. Le piège est de bien utiliser la S-convexité (et pas seulement la convexité) : on applique la définition avec des matrices bistochastiques bien choisies. L’inégalité \((x_i – x_j)(\partial_i f(x) – \partial_j f(x)) \geq 0\) pour tout \(i, j\) est la condition de Schur-Ostrowski, et sa preuve repose sur un choix astucieux de matrice bistochastique.

Q27 – Théorème de Davis. Cette question est la plus exigeante du sujet. La clé est de montrer l’existence de matrices bistochastiques \(S_1, S_2\) (Q27b) telles que \(\hat{\lambda}(C) = S_1 \hat{\lambda}(A) + S_2 \hat{\lambda}(B)\), puis d’utiliser Birkhoff-Von Neumann et la S-convexité de \(f\). Ne néglige pas Q27a qui est un résultat intermédiaire essentiel.


Méthodes attendues et stratégies de résolution

Partie I (Q1-6)

Q1 : Calculer directement \(\phi_\sigma(e_j) = P_\sigma e_j\) en utilisant la définition \((P_\sigma)_{i,j} = \delta_{i, \sigma(j)}\). Le résultat s’obtient en identifiant les composantes du vecteur image.

Q2 : Calculer \((P_\sigma P_\tau)_{i,j} = \sum_k (P_\sigma)_{i,k}(P_\tau)_{k,j} = \sum_k \delta_{i,\sigma(k)} \delta_{k,\tau(j)} = \delta_{i,\sigma(\tau(j))}\). Pour l’inverse, utiliser que \(\sigma^{-1}\) est aussi une permutation et \(P_\sigma P_{\sigma^{-1}} = P_{\mathrm{id}} = I_n\).

Q3 : Exploiter Q2 et le fait que \({}^t P_\sigma = P_{\sigma^{-1}}\) (à vérifier via les coefficients), d’où \({}^t P_\sigma P_\sigma = I_n\).

Q4 : Récurrence sur \(n\). Au rang \(n\), choisir \(\sigma(1)\) tel que \(x_{\sigma(1)}\) est le maximum, puis appliquer l’hypothèse de récurrence aux \(n-1\) composantes restantes.

Q5 : Raisonner par l’absurde ou par récurrence. Si \(\alpha\) et \(\beta\) trient toutes deux en ordre décroissant, alors \(x_{\alpha(i)} = x_{\beta(i)}\) pour tout \(i\), ce qui est le résultat demandé.

Q6 : Compléter avec imax = i, la condition if Y[k] > Y[imax]: suivie de imax = k, et le swap classique Y[i], Y[imax] = Y[imax], Y[i] accompagné du swap correspondant dans alpha.

Partie II (Q7-10)

Q7a : Pour les matrices orthostochastiques, vérifier que \((Q_{i,j})^2 \geq 0\) et utiliser l’orthogonalité de \(Q\) pour les sommes en ligne et colonne. Pour les matrices de permutation, c’est immédiat (coefficients 0 ou 1 avec exactement un 1 par ligne/colonne).

Q8 : En dimension 2, les seules permutations sont l’identité et la transposition. Toute matrice bistochastique 2×2 s’écrit \(\begin{pmatrix} a & 1-a \\ 1-a & a \end{pmatrix} = aI_2 + (1-a)P\) avec \(a \in [0,1]\).

Q9 : Dénombrer les 6 permutations de \(\{1,2,3\}\) (Q9a), puis lister les 6 matrices \(P_i\) correspondantes. Pour Q9c, utiliser les contraintes bistochastiques pour exprimer la dernière ligne et la dernière colonne. Pour Q9d, poser \(\beta_0 = \min_{1 \leq i \leq 3} S_{i,i}\) et retrancher \(\beta_0 I_3\), puis itérer la décomposition.

Q10 : Implémenter l’algorithme de Sinkhorn : normaliser alternativement par les sommes des lignes puis des colonnes, itérer iter fois.

Partie III (Q11-21)

Q11 : \(P_\sigma X\) permute les composantes de \(X\) : le résultat est le vecteur \((x_{\sigma^{-1}(1)}, \ldots, x_{\sigma^{-1}(n)})^t\). Attention à l’ordre (utiliser la définition de \(P_\sigma\)).

Q12 : Une direction utilise Q11 ; l’autre utilise le fait que toute bijection de \(\{1,\ldots,n\}\) correspond à une matrice de permutation dans \(\mathbb{P}_n\).

Q16 : La matrice identité \(I_n\) est bistochastique, et les matrices de permutation aussi. Utiliser la S-convexité avec \(B = P_\sigma\) pour montrer \(f(x_\sigma) \leq f(x)\), puis par symétrie \(f(x_\sigma) = f(x)\).

Q17 : Appliquer la convexité de \(g\) par récurrence sur \(m\), en utilisant la relation \(\sum \alpha_k z_k = \alpha_1 z_1 + (1-\alpha_1)\sum_{k \geq 2} \displaystyle\frac{\alpha_k}{1-\alpha_1} z_k\).

Q21 : Le sens direct utilise la condition de Schur (Q20) : \(\partial_i f(x) = h^\prime(x_i)\), donc la condition \((x_i – x_j)(h^\prime(x_i) – h^\prime(x_j)) \geq 0\) est exactement la croissance de \(h^\prime\), qui caractérise la convexité de \(h\).

Partie IV (Q22-30)

Q22 : Utiliser que \(\mathrm{Tr}(QA^k Q^t) = \mathrm{Tr}(A^k)\) par cyclicité de la trace et \(Q^t Q = I_n\).

Q24 : C’est le théorème spectral pour les matrices symétriques réelles. La matrice \(Q\) est la matrice de passage dans une base orthonormée de vecteurs propres.

Q27 : Pour (Q27a), utiliser le résultat de la partie III (Q27a demande \(\mathrm{diag}(A) = S \hat{\lambda}(A)\) avec \(S\) bistochastique). Pour (Q27b), exploiter la linéarité de \(\hat{\lambda}\) en un certain sens. Pour (Q27c), combiner avec Birkhoff-Von Neumann et la S-convexité.

Q30 – Inégalité de Fan : Utiliser Q27d (\(F(\mathrm{DG}(A)) \leq F(A)\)) et la relation entre le produit scalaire des diagonales et les valeurs propres.


Conseils pour les futurs candidats

Priorité n°1 : maîtriser les matrices de permutation et les matrices orthogonales. Ce sujet montre que ces notions, parfois considérées comme secondaires, peuvent être au cœur d’un sujet ESSEC/HEC. Travaille les propriétés du produit de matrices de permutation, le lien avec la composition des bijections, et la caractérisation des matrices orthogonales.

Priorité n°2 : convexité et inégalité de Jensen. La notion de convexité est omniprésente dans ce sujet (combinaisons convexes, fonctions S-convexes, théorème de Davis). Assure-toi de maîtriser la définition, le lien avec la dérivée seconde, et surtout l’inégalité de Jensen sous toutes ses formes (discrète, avec poids).

Priorité n°3 : diagonalisation des matrices symétriques réelles. Le théorème spectral est utilisé massivement en partie IV. Révise la diagonalisation en base orthonormée, les propriétés des valeurs propres, et la cyclicité de la trace. Entraîne-toi à manipuler les identités du type \(A = Q \Lambda {}^t Q\).

Programmation Python : Les questions 6 et 10 sont des points à ne pas négliger. Révise les algorithmes de tri (sélection, insertion) et familiarise-toi avec la manipulation de tableaux NumPy (normalisation par ligne, par colonne). L’algorithme de Sinkhorn est un classique en optimisation : connaître son principe te fera gagner un temps précieux.

Stratégie le jour J : Face à un tel sujet, la gestion du temps est cruciale. Traite d’abord intégralement la partie I (20-25 min), puis la partie II jusqu’à Q9d inclus (45-60 min). Aborde ensuite la partie III en ciblant Q11-14 et Q16-18 (30-40 min). Ne t’enlise pas dans les questions finales de la partie IV si tu n’as pas sécurisé les parties précédentes. Les questions Q22-25 de la partie IV sont accessibles et méritent d’être tentées même si tu n’as pas terminé la partie III.

Logo-excellence-maths
Préparer BCE ECG Approfondies avec un professeur de Polytechnique
Tu vises ce concours l'année prochaine ? Un accompagnement individuel pour transformer ta préparation et maximiser ta note le jour J.