Rédigé et vérifié par un professeur diplômé de l’École Polytechnique. Découvrir le professeur
L’épreuve de Mathématiques (XUSR) du concours X/ENS 2026 en filière PSI, d’une durée de 4 heures sans calculatrice, propose un problème unique et ambitieux. Le sujet se structure autour de la démonstration progressive d’un théorème de recherche récent (Boulmezaoud-Cieutat-Daniilidis) : si deux fonctions convexes minorées de classe \(C^2\) ont la même norme de gradient en tout point, alors elles ne diffèrent que d’une constante. Le parcours passe par l’analyse convexe, l’algèbre bilinéaire sur les matrices symétriques, puis un flot de gradient associé à un système différentiel linéaire. La difficulté est globalement élevée à très élevée, avec un début abordable mais une montée en puissance significative dès la Partie III.
| Partie du sujet | Thème | Niveau | Notions mobilisées |
|---|---|---|---|
| Partie I (Q1–Q2) | Propriétés des fonctions convexes et minorées | Accessible | Convexité C¹, inégalité du gradient, existence de minimum |
| Partie II (Q3–Q5) | Cas monodimensionnel du théorème | Élevé | Fonctions dérivables croissantes, étude de zéros, convexité via dérivée seconde |
| Partie III (Q6–Q10) | Cas des fonctions quadratiques | Élevé | Matrices symétriques positives, noyau/image, racine carrée matricielle |
| Partie IV (Q11–Q17) | Cas semi-général par flot de gradient | Très élevé | Système différentiel linéaire, intégrales généralisées, décroissance exponentielle |
Le sujet intégral en PDF
L’énoncé complet tel qu’il a été distribué en salle d’examen.
📄 Télécharger le sujet (PDF)Correction complète et détaillée du sujet
Question par question, avec méthodes, calculs et conseils.
📄 Télécharger la correction (PDF)Disponible immédiatement après inscription email.
Structure et thèmes du sujet
Le sujet s’articule en quatre parties de difficulté croissante, toutes convergeant vers la démonstration du théorème de Boulmezaoud-Cieutat-Daniilidis.
Partie I — Généralités sur les fonctions convexes et minorées (Q1–Q2)
Cette partie établit les outils fondamentaux d’analyse convexe. La question 1 construit pas à pas les propriétés classiques d’une fonction convexe \(C^1\) : inégalité du gradient \(f(y) – f(x) \geq \langle \nabla f(x), y – x \rangle\), monotonie du gradient, caractérisation des points stationnaires comme minima globaux, et convexité fermée de \(S(f)\). La question 2 traite le cas d’une fonction simplement minorée (pas nécessairement convexe) et montre que l’infimum des normes du gradient est nul, via une astuce de perturbation par \(f_\varepsilon(x) = f(x) + \varepsilon\sqrt{x_1^2 + \cdots + x_n^2 + 1}\).
Partie II — Le cas monodimensionnel (Q3–Q5)
On se restreint à \(n = 1\). La question 3 traite deux fonctions convexes minorées \(f_1, f_2\) avec \((f_1^\prime)^2 – (f_2^\prime)^2 = c\) (constante), et montre que \(c = 0\) puis \(f_1^\prime = f_2^\prime\). La question 4 prouve un résultat intermédiaire : si \(g\) est \(C^2\) minorée et que \(R(x) = g^\prime(x)^2\) est convexe, alors \(g\) elle-même est convexe. La question 5 combine les deux pour conclure le théorème en dimension 1.
Partie III — Cas des fonctions quadratiques (Q6–Q10)
On travaille avec les fonctions de \(\mathcal{E}\) de la forme \(f(x) = \displaystyle\frac{1}{2}\,{}^t\!XMX – {}^t\!BX\) où \(M\) est symétrique. La question 6 étudie les propriétés de \(M\) : décomposition \(\mathrm{Im}(M) \oplus \mathrm{Ker}(M) = \mathcal{M}_{n,1}(\mathbb{R})\), équivalence entre \(f \in \mathcal{E}_0\) et positivité de \(M\). L’application \(T : f \mapsto Tf\) (où \((Tf)(x) = \displaystyle\frac{1}{2}\Vert\nabla f(x)\Vert^2 – \displaystyle\frac{1}{2}\Vert\nabla f(0)\Vert^2\)) est étudiée : surjectivité (Q7), puis injectivité (Q9) via l’unicité de la racine carrée d’une matrice symétrique positive (Q8). La question 10 conclut le théorème pour les fonctions quadratiques.
Partie IV — Un cas plus général (Q11–Q17)
On suppose \(f + g \in \mathcal{E}\) avec \(f, g\) convexes minorées et \(\Vert\nabla f\Vert^2 – \Vert\nabla g\Vert^2\) constante. On étudie le système différentiel \(Y^\prime(t) = -MY(t) + B\) (flot de gradient de \(h = f + g\)). La convergence de \(Y(t)\) est démontrée via une décroissance exponentielle de \(\Vert Z(t)\Vert^2\). Des intégrales généralisées de type Hardy (Q14) permettent de contrôler \(\int_0^{+\infty} \displaystyle\frac{\Vert y(t)\Vert^2}{t^2+1}\,dt\). Finalement, on montre que \(\psi = f – g\) est constante le long des trajectoires du flot, puis partout (Q16–Q17).
Notions et chapitres testés
- Analyse multivariable : gradient, différentiabilité \(C^1\) et \(C^2\), composition de fonctions, règle de la chaîne.
- Fonctions convexes : définition par inégalité, caractérisation \(C^1\) via le gradient, monotonie du gradient, minima globaux. Ce chapitre, souvent abordé en cours d’analyse, est ici central.
- Algèbre bilinéaire et matrices symétriques : noyau, image, orthogonalité \(\mathrm{Ker}(M)^\perp = \mathrm{Im}(M)\), positivité, somme directe.
- Réduction des matrices symétriques : diagonalisation en base orthonormée (implicite dans Q8 pour la racine carrée matricielle).
- Équations différentielles linéaires : système \(Y^\prime = -MY + B\), solutions, comportement asymptotique.
- Intégrales généralisées : convergence, majoration, inégalité de Cauchy-Schwarz intégrale.
- Topologie de \(\mathbb{R}^n\) : parties fermées, convexes, compactes (argument de compacité en Q2a).
Niveau de difficulté et comparaison aux années précédentes
Ce sujet se situe dans la tranche haute des épreuves X/ENS PSI récentes. La Partie I est classique et devrait être traitée par la majorité des candidats sérieux. La Partie II, bien que monodimensionnelle, requiert une finesse d’analyse (distinction de cas \(S(f_1) = \emptyset\) versus \(S(f_1) \neq \emptyset\) en Q3d) qui la rend plus sélective qu’il n’y paraît. La Partie III mobilise une algèbre matricielle solide, avec la difficulté conceptuelle de raisonner sur des sous-espaces (noyau, image) pour les questions 6c–6f. Enfin, la Partie IV est clairement la plus exigeante, mêlant analyse fonctionnelle et équations différentielles dans un cadre multidimensionnel avec des estimations intégrales non triviales.
Par rapport aux sujets 2023–2025, on retrouve la tendance X/ENS à proposer un problème guidé autour d’un résultat profond. Le mélange analyse-algèbre rappelle certains sujets récents, mais l’accent mis sur la convexité et le flot de gradient est relativement original pour cette filière. La longueur est importante : traiter intégralement les quatre parties en 4 heures relève de l’exploit.
Pièges et points techniques délicats
Q1a — Ne pas oublier la règle de la chaîne. La fonction \(h(t) = f(x + t(y – x))\) est composée. Pour obtenir \(h^\prime(0)\), il faut écrire \(h^\prime(t) = \langle \nabla f(x + t(y – x)),\, y – x \rangle\) puis évaluer en \(t = 0\). L’erreur classique est d’oublier le vecteur \(y – x\) dans la dérivée.
Q1e — Convexité ET fermeture de \(S(f)\). La convexité de \(S(f)\) découle de la caractérisation 1d, mais la fermeture nécessite un argument de continuité du gradient. Beaucoup de candidats prouvent la convexité et oublient la fermeture, ou inversement.
Q2a — Montrer l’existence d’un minimum de \(f_\varepsilon\). L’indication suggère de considérer l’ensemble de sous-niveau \(\{x \mid f_\varepsilon(x) \leq f_\varepsilon(0)\}\). Il faut montrer que cet ensemble est borné (car \(\varepsilon\sqrt{\Vert x\Vert^2 + 1} \to +\infty\)) puis fermé, donc compact, et appliquer le théorème des bornes atteintes. L’erreur serait de ne pas justifier la compacité.
Q3a — Montrer que \(c = 0\). C’est le point de départ de toute la Partie II. Il faut utiliser Q2c (inf des normes du gradient est nul) appliqué à \(f_1\) et \(f_2\) séparément, et exploiter la constance de \((f_1^\prime)^2 – (f_2^\prime)^2\).
Q3d — Distinction de cas cruciale. Lorsque \(S(f_1) = \emptyset\), la dérivée \(f_1^\prime\) ne s’annule jamais, donc elle est de signe constant (car continue et croissante). Lorsque \(S(f_1) \neq \emptyset\), on utilise la structure d’intervalle de \(S(f_1)\) et le fait que \(S(f_1) = S(f_2)\).
Q6c — Preuve de \(\mathrm{Ker}(M)^\perp = \mathrm{Im}(M)\). Pour une matrice symétrique, ce résultat classique utilise \({}^t\!M = M\). L’inclusion \(\mathrm{Im}(M) \subset \mathrm{Ker}(M)^\perp\) se montre en calculant \(\langle MX, Y \rangle\) pour \(Y \in \mathrm{Ker}(M)\). L’égalité suit par argument de dimension.
Q8 — Unicité de la racine carrée matricielle. C’est le point technique clé de la Partie III. Si \(M_1^2 = M_2^2\) avec \(M_1, M_2\) symétriques positives, il faut les diagonaliser simultanément (elles commutent car \(M_1^2 = M_2^2\)) et conclure par positivité des valeurs propres. C’est une question qui requiert un recul important en algèbre.
Q14–Q15 — Estimations intégrales et flot de gradient. La question 14 introduit des inégalités de type Hardy qui sont techniques. En Q15, le piège est de ne pas exploiter correctement la décroissance de \(F(t) = h(y(t))\) pour justifier la convergence des intégrales.
Méthodes attendues et stratégies de résolution
Q1a–b : Dérivation composée pour \(h^\prime(0)\), puis convexité de \(h\) (fonction d’une variable) pour obtenir \(h(1) – h(0) \geq h^\prime(0)\), ce qui donne l’inégalité du gradient.
Q1c : Écrire l’inégalité de Q1b en échangeant les rôles de \(x\) et \(y\), puis additionner les deux inégalités.
Q1d : Si \(x_0 \in S(f)\), alors \(\nabla f(x_0) = 0\), et l’inégalité Q1b donne directement \(f(y) \geq f(x_0)\) pour tout \(y\).
Q2a : Argument de compacité sur l’ensemble de sous-niveau. Le terme \(\varepsilon\sqrt{\Vert x\Vert^2 + 1}\) assure la coercivité de \(f_\varepsilon\).
Q2b : Au minimum \(x_\varepsilon\), le gradient de \(f_\varepsilon\) s’annule. On calcule \(\nabla f_\varepsilon(x) = \nabla f(x) + \varepsilon \displaystyle\frac{x}{\sqrt{\Vert x\Vert^2 + 1}}\), d’où \(\Vert\nabla f(x_\varepsilon)\Vert = \varepsilon \displaystyle\frac{\Vert x_\varepsilon\Vert}{\sqrt{\Vert x_\varepsilon\Vert^2 + 1}} \leq \varepsilon\).
Q3 : Exploiter l’infimum nul des normes de gradient (Q2c) pour montrer \(c = 0\). La croissance de \(f_i^\prime\) (fonctions convexes) et la structure d’intervalle de \(S(f_i)\) permettent de conclure.
Q4 : Montrer \(S(R) = S(g)\) en observant que \(R(x) = 0 \Leftrightarrow g^\prime(x) = 0\). Utiliser la convexité de \(R\) et Q1d pour montrer que \(g^\prime\) est croissante dans les deux cas (avec ou sans zéros). Puis exploiter la fonction auxiliaire \(\varphi(t) = g((1-t)x + ty) – (1-t)g(x) – tg(y)\).
Q6 : Calcul direct du gradient : \(\nabla f(x) = Mx – b\) (où \(b\) est le vecteur correspondant à \(B\)). Pour Q6e, utiliser le théorème du rang et la décomposition en sous-espaces propres de \(M\).
Q7 : Pour la surjectivité de \(T\), étant donné \(g \in \mathcal{E}_0\) caractérisée par \((N, C)\), chercher \(f\) caractérisée par \((M, B)\) telle que \(Tf = g\), ce qui revient à résoudre \(M^2 = N\) (racine carrée matricielle).
Q8 : Diagonaliser \(M_1\) et \(M_2\) simultanément. Comme \(M_1^2 = M_2^2\), les valeurs propres au carré coïncident, et la positivité force l’égalité des valeurs propres, puis des matrices.
Q15 : La décroissance de \(F(t) = h(y(t))\) s’obtient en calculant \(F^\prime(t) = \langle \nabla h(y(t)), y^\prime(t) \rangle = -\Vert Y^\prime(t)\Vert^2 \leq 0\). L’inégalité \(\omega^\prime(t) + \beta\omega(t) \leq 0\) utilise la coercivité de \(M\) sur \(\mathrm{Im}(M)\) (Q6f).
Q16–Q17 : L’orthogonalité \(\langle \nabla\psi(x), \nabla h(x)\rangle = 0\) vient de \(\Vert\nabla f\Vert^2 – \Vert\nabla g\Vert^2\) constante. La constance de \(\psi(y(t))\) le long du flot, combinée à la convergence vers \(S(h)\) et la densité des trajectoires, donne \(\psi\) constante.
Conseils pour les futurs candidats
1. Maîtriser l’analyse convexe sur le bout des doigts. Les propriétés des fonctions convexes (inégalité du gradient, monotonie, caractérisation des minima) sont incontournables. Ce chapitre, parfois sous-estimé en PSI, est ici le socle de tout le problème. Travaillez les démonstrations classiques jusqu’à les connaître par cœur.
2. Savoir manipuler noyau, image et orthogonalité pour les matrices symétriques. La décomposition \(\mathrm{Im}(M) \oplus \mathrm{Ker}(M) = \mathcal{M}_{n,1}(\mathbb{R})\) et ses conséquences (automorphisme restreint, coercivité) sont des résultats structurants. Révisez en profondeur la réduction des matrices symétriques et les propriétés spectrales associées.
3. S’entraîner aux systèmes différentiels linéaires et à leur comportement asymptotique. Le flot de gradient \(Y^\prime = -MY + B\) est un système linéaire classique, mais son exploitation (décroissance exponentielle, convergence vers l’équilibre) demande une maîtrise solide du chapitre des équations différentielles. Travaillez les exercices de comportement en \(+\infty\) des solutions.
4. Ne pas négliger les intégrales généralisées. Les questions 14–15f mettent en jeu des techniques de convergence et de majoration d’intégrales impropres qui relèvent directement du chapitre intégrales généralisées. L’inégalité de Cauchy-Schwarz intégrale et les comparaisons sont des outils essentiels à maîtriser.
5. Stratégie de copie : sécuriser les Parties I et II, puis cibler dans III et IV. Un candidat efficace traitera l’intégralité de la Partie I (questions directes, résultats classiques), l’essentiel de la Partie II, les questions calculatoires de la Partie III (Q6a–c), puis ira chercher des points dans la Partie IV sur les questions accessibles (Q11, Q12, Q15a). L’objectif réaliste pour une bonne copie se situe autour de 60 à 70% du sujet.