Rédigé et vérifié par un professeur diplômé de l’École Polytechnique. Découvrir le professeur
Le sujet de Mathématiques X/ENS PC 2026, proposé le 13 avril pour une durée de 4 heures sans calculatrice, explore des modèles simplifiés de matériaux ferromagnétiques. Le fil conducteur est physique — des aimants prenant les valeurs +1 ou −1 — mais le traitement est intégralement mathématique, mêlant analyse multivariable, algèbre linéaire et probabilités. Structuré en trois parties progressives de 8, 10 et 14 questions respectivement, le sujet affiche une difficulté croissante et une cohérence remarquable : les résultats de la première partie sont réinvestis tout au long de l’épreuve. Un sujet exigeant, mais où les questions d’amorce offrent de nombreux points accessibles.
| Partie du sujet | Thème | Niveau | Notions mobilisées |
|---|---|---|---|
| Première partie (Q1-8) | Convexité et fonction génératrice des cumulants | Accessible | Convexité, convergence simple, matrice hessienne |
| Deuxième partie – début (Q9-10) | Cas non interactif et convexité de F_N | Accessible | Indépendance, espérance, produit |
| Deuxième partie – cœur (Q11-16) | Modèle d’Ising 1D – matrice de transfert | Élevé | Diagonalisation 2×2, trace, valeurs propres |
| Deuxième partie – fin (Q17-18) | Convergence vers la valeur absolue | Élevé | Convergence simple, dérivée de limite convexe |
| Troisième partie – début (Q19-22) | Grandes déviations de la moyenne empirique | Élevé | Formule de Stirling, fonction taux I(x) |
| Troisième partie – fin (Q23-32) | Modèle de Curie-Weiss et transition de phase | Très élevé | Optimisation, convexité/concavité, analyse critique |
Le sujet intégral en PDF
L’énoncé complet tel qu’il a été distribué en salle d’examen.
📄 Télécharger le sujet (PDF)Correction complète et détaillée du sujet
Question par question, avec méthodes, calculs et conseils.
📄 Télécharger la correction (PDF)Disponible immédiatement après inscription email.
Structure et thèmes du sujet
Première partie (Q1-8) : boîte à outils convexe
Cette partie établit les propriétés fondamentales de la convexité qui serviront de colonne vertébrale au sujet. On y montre que la limite simple de fonctions convexes reste convexe (Q2), que la convergence des dérivées se déduit sous hypothèse de dérivabilité de la limite (Q4), et que la matrice hessienne caractérise la convexité en classe \(C^2\) (Q5-6). Le point d’orgue est l’application à la fonction génératrice des cumulants \(\phi(\lambda) = \ln E[e^{\lambda \cdot X}]\), dont on prouve qu’elle est \(C^2\) et convexe (Q7-8).
Deuxième partie (Q9-18) : modèle d’Ising unidimensionnel
On passe à un modèle de mécanique statistique sur un anneau de \(N\) spins. L’énergie \(H_N(\beta, h, a)\) couple les spins voisins (paramètre \(\beta\)) et un champ magnétique extérieur \(h\). La technique centrale est la matrice de transfert : on factorise \(\exp(H_N)\) en un produit de termes \(B_{a_i, a_{i+1}}\) (Q12), ce qui conduit à \(Z_N = 2^{-N} \mathrm{tr}(A^N)\) (Q13). La diagonalisation de la matrice \(A\) de taille \(2 \times 2\) (Q11) permet de calculer l’énergie libre limite (Q14) et la magnétisation (Q16). Les questions finales (Q17-18) montrent que \(g_\beta(h) \to |h|\) quand \(\beta \to +\infty\), illustrant la transition vers un comportement non-différentiable.
Troisième partie (Q19-32) : modèle de Curie-Weiss et transition de phase
On remplace l’interaction entre voisins par une interaction de champ moyen : chaque spin interagit avec la moyenne \(S_N = \displaystyle\frac{1}{N}\sum_{i=1}^{N} \sigma_i\). L’outil central est la fonction taux \(I(x)\) issue du principe de grandes déviations (Q20-21). L’énergie libre limite est un problème d’optimisation \(g(\beta,h) = \sup_{x \in [-1,1]}(\beta x^2 + hx – I(x))\). L’analyse de la fonction \(\psi_{\beta,h}\) révèle une transition de phase en \(\beta = \displaystyle\frac{1}{2}\) (Q25) : pour \(\beta\) > \(\displaystyle\frac{1}{2}\), une magnétisation spontanée apparaît. Le sujet s’achève sur le comportement critique \(x_* \sim (3h)^{1/3}\) en \(\beta = \displaystyle\frac{1}{2}\) (Q32).
Notions et chapitres testés
- Analyse réelle et convexité : fonctions convexes, convergence simple, dérivabilité de la limite, matrice hessienne et positivité, optimisation sur un compact.
- Algèbre linéaire : diagonalisation de matrices 2×2, trace et puissances de matrices, valeurs propres et comportement asymptotique de \(\mathrm{tr}(A^N)\).
- Probabilités : variables aléatoires discrètes, espérance, indépendance, fonction génératrice des cumulants, formule de Stirling et grandes déviations.
- Fonctions hyperboliques : ch, sh, th et leurs propriétés (dérivées, limites, inversibilité de th).
- Fonctions de plusieurs variables : dérivées partielles, classe \(C^2\), Hessienne, théorème de Schwarz.
Niveau de difficulté et comparaison aux années précédentes
Ce sujet se situe dans la fourchette haute des épreuves de Maths X/ENS PC des dernières années. Plusieurs éléments le distinguent :
- Le thème unifié autour de la mécanique statistique donne une grande cohérence, mais impose de comprendre l’architecture globale pour exploiter les résultats intermédiaires — un exercice intellectuel plus exigeant qu’un sujet à parties indépendantes.
- La première partie reste classique (niveau comparable aux sujets 2022-2024 sur la convexité) et devrait être traitée par la majorité des candidats sérieux.
- La deuxième partie est d’un niveau standard pour un sujet X/ENS, grâce à la matrice de transfert 2×2. Elle rappelle les sujets utilisant la réduction matricielle pour calculer des suites récurrentes.
- La troisième partie est nettement plus ambitieuse, avec un contenu proche des grandes déviations et de l’analyse variationnelle. Les questions 29 à 32 sont du niveau attendu pour discriminer les très bonnes copies.
Par rapport aux sessions 2023-2025, l’épreuve demande moins de calcul brut mais davantage de compréhension structurelle et de réinvestissement transversal des résultats.
Pièges et points techniques délicats
Q1 : Ne pas oublier d’exploiter la convexité dans les deux sens — le point \(x\) doit être écrit comme barycentre de \(x-h\) et \(x+h\) d’une part, puis les points extrêmes comme barycentres faisant intervenir \(x\). L’erreur classique est de ne prouver qu’une seule des deux inégalités.
Q4 : La difficulté est de combiner l’encadrement de Q1 avec la convergence simple. Il faut appliquer Q1 à \(f_n\), passer à la limite dans les taux d’accroissement (qui convergent vers ceux de \(f\)), puis faire tendre \(h \to 0\). L’ordre des limites est crucial.
Q8 : Le lien entre la hessienne de \(\phi\) et une matrice de covariance (Q7) est la clé. La positivité de la matrice de covariance se démontre via l’inégalité de Cauchy-Schwarz ou par calcul direct \(u^T \mathrm{Cov} \, u = \mathrm{Var}(u \cdot X) \geq 0\). Les candidats qui ne voient pas la structure probabiliste risquent de se perdre dans des calculs inutiles.
Q13 : Le passage de la somme sur les configurations \(a \in \{-1,1\}^N\) à la trace de \(A^N\) est le point technique central. Il faut identifier que la somme sur \(a_1, \ldots, a_N\) des produits \(\prod B_{a_i, a_{i+1}}\) (avec condition périodique \(a_{N+1} = a_1\)) correspond exactement à la trace du produit matriciel, en utilisant la convention d’indexation \(\{-1, +1\}\) pour les lignes et colonnes. Ne pas oublier le facteur \(2^{-N}\) provenant des probabilités.
Q21 : L’application de la formule de Stirling à \(C_N^{k}\) avec \(k = \displaystyle\frac{N(1+u_N)}{2}\) requiert de la rigueur. Le piège est de ne pas contrôler correctement les termes résiduels quand \(u_N \to x \in ]-1,1[\). Il faut s’assurer que \(k\) et \(N-k\) tendent tous deux vers l’infini.
Q25 : C’est la question pivot du sujet. Pour \(\beta = \displaystyle\frac{1}{2}\), la concavité de \(\psi_{\beta,0}\) change de signe en \(x=0\), rendant l’analyse plus subtile. Pour \(\beta\) > \(\displaystyle\frac{1}{2}\), il faut montrer l’existence de deux maximums symétriques en exploitant la parité de \(\psi_{\beta,0}\) et le changement de concavité.
Q29 : La non-dérivabilité de \(h \mapsto g(\beta, h)\) en \(h = 0\) pour \(\beta\) > \(\displaystyle\frac{1}{2}\) est une conséquence directe de la brisure de symétrie : \(x_*(\beta, 0^+) \neq -x_*(\beta, 0^-)\). Les candidats doivent relier cela au résultat de Q25.
Méthodes attendues et stratégies de résolution
Q1-4 (convexité et dérivées) : Pour Q1, écrire \(x\) comme barycentre de \(x-h\) et \(x+h\) avec coefficients \(\displaystyle\frac{1}{2}\), puis utiliser la définition de la dérivée. Pour Q3, penser à \(f_n(x) = |x| + \displaystyle\frac{x^2}{n}\) ou une suite de fonctions affines par morceaux convergeant vers \(|x|\). Pour Q4, la stratégie clé est l’encadrement « sandwich » via Q1 appliqué à \(f_n\), suivi d’un passage à la limite.
Q5-8 (hessienne et convexité de φ) : Pour Q5, suivre l’indication en considérant \(t \mapsto g(x + tu)\) qui est convexe, donc de dérivée seconde positive : \(u^T H_g(x) u \geq 0\). Pour Q6, utiliser la formule de Taylor à l’ordre 2 avec reste intégral. Pour Q8, combiner Q6 et Q7 en reconnaissant dans la hessienne de \(\phi\) une matrice de variance-covariance sous une loi « tilted ».
Q9-14 (matrice de transfert) : Pour Q9, exploiter l’indépendance des \(\sigma_i\) quand \(\beta = 0\). Pour Q11, calculer le polynôme caractéristique de \(A\) et vérifier que le discriminant \(e^{2\beta}\mathrm{sh}^2(h) + e^{-2\beta}\) est strictement positif. Pour Q14, la diagonalisation donne \(\mathrm{tr}(A^N) = \lambda_1^N + \lambda_2^N\), et le comportement asymptotique est dominé par la plus grande valeur propre.
Q17-18 (convergence vers |h|) : Estimer \(\lambda(\beta, h)\) pour \(\beta\) grand : \(\lambda(\beta, h) \approx e^{\beta + |h|}\), d’où \(g_\beta(h) \to |h|\). Pour Q18, utiliser Q4 pour conclure \(g^\prime_\beta(h) \to \mathrm{sign}(h)\) aux points \(h \neq 0\) ; la convergence n’est pas uniforme (discontinuité de la limite en 0).
Q19-21 (grandes déviations) : Pour Q20, \(S_N = x\) si et seulement si exactement \(k = \displaystyle\frac{N(1+x)}{2}\) des \(\sigma_i\) valent 1, d’où \(P[S_N = x] = C_N^k \cdot 2^{-N}\). Pour Q21, appliquer Stirling et simplifier les logarithmes pour retrouver \(I(x) = -\ln 2 + \displaystyle\frac{1+x}{2}\ln(1+x) + \displaystyle\frac{1-x}{2}\ln(1-x)\) (c’est la même expression que celle donnée, après réécriture).
Q23-25 (analyse de ψ) : Calculer \(\psi^{\prime\prime}_{\beta,h}(x) = 2\beta – \displaystyle\frac{1}{1-x^2}\). Pour \(\beta \leq \displaystyle\frac{1}{2}\), on a \(\psi^{\prime\prime} \leq 0\) partout sur \(]-1,1[\) : la fonction est concave, le maximum est unique. Pour \(\beta\) > \(\displaystyle\frac{1}{2}\), il y a une zone de convexité autour de 0, créant potentiellement deux maximums locaux.
Q31-32 (équation d’auto-cohérence et exposant critique) : L’équation \(x_* = \mathrm{th}(h + 2\beta x_*)\) se déduit de la condition \(\psi^\prime_{\beta,h}(x_*) = 0\). Pour Q32 avec \(\beta = \displaystyle\frac{1}{2}\), poser \(x_* = (3h)^{1/3} u\) et montrer \(u \to 1\) en développant th au voisinage de 0 à l’ordre 3 : \(\mathrm{th}(t) \approx t – \displaystyle\frac{t^3}{3}\).
Conseils pour les futurs candidats
1. Maîtriser la convexité en profondeur. Ce sujet confirme une tendance des concours X/ENS : la convexité n’est plus un simple outil d’analyse, mais un thème structurant. Travaillez les liens entre convexité, positivité de la hessienne, inégalité de Jensen et convergence des dérivées.
2. S’entraîner à la réduction de matrices 2×2 paramétrées. Le calcul des valeurs propres d’une matrice 2×2 dépendant de paramètres est un classique qui revient sous de multiples formes. Assurez-vous de savoir le faire rapidement et sans erreur, en identifiant trace, déterminant et discriminant.
3. Connaître la formule de Stirling et ses applications combinatoires. L’estimation asymptotique des coefficients binomiaux via Stirling est un passage obligé pour les problèmes de probabilités à grande échelle. Entraînez-vous à manipuler \(\displaystyle\frac{1}{N}\ln C_N^k\) avec \(k \sim \alpha N\).
4. Réinvestir les résultats précédents. Le sujet insiste à plusieurs reprises sur le fait qu’on peut (et doit) réutiliser les questions antérieures, y compris entre parties. Les questions 16, 18 et 30 appellent explicitement les résultats de la partie 1. Les candidats qui cloisonnent leur copie perdent un avantage décisif.
5. Travailler les fonctions hyperboliques. Les fonctions ch, sh, th apparaissent massivement. Connaître leurs dérivées, leurs comportements limites et l’identité \(\mathrm{ch}^2 – \mathrm{sh}^2 = 1\) est indispensable pour mener les calculs de ce sujet à bien.
6. Ne pas négliger l’optimisation paramétrique. La troisième partie est un exercice d’analyse fine : étude de \(\psi_{\beta,h}\), localisation des maximums, discussion selon les paramètres. Ce type de question, à mi-chemin entre l’analyse et le calcul des variations, est de plus en plus fréquent aux concours.