Rédigé et vérifié par un professeur diplômé de l’École Polytechnique. Découvrir le professeur
L’épreuve de Mathématiques D du concours X/ENS filière MP 2026 porte le titre « Approximations probabilistes ». Long de 7 pages et 27 questions, ce sujet sans calculatrice propose un parcours ambitieux à travers la méthode de Chen-Stein pour l’approximation poissonienne, puis la technique des paires échangeables pour obtenir des inégalités de concentration. Les applications finales couvrent les permutations aléatoires et le modèle de Curie-Weiss, allant jusqu’à des résultats de physique statistique. Le niveau global est élevé à très élevé, avec cependant des points d’entrée accessibles dans les préliminaires et l’espérance conditionnelle.
| Partie du sujet | Thème | Niveau | Notions mobilisées |
|---|---|---|---|
| Préliminaires (Q1–Q3) | Loi de Poisson et inégalités | Accessible | Fonction génératrice, borne de Chernoff, inégalité de Stirling |
| 1.1 Opérateur de Chen-Stein (Q4–Q8) | Opérateur de Stein pour la loi de Poisson | Élevé | Norme d’opérateur, espaces fonctionnels, résolution d’équation de Stein |
| 1.2 Approximation poissonienne (Q9–Q12) | Sommes de Bernoulli et Le Cam | Élevé | Loi binomiale, distance en variation totale, variables dépendantes |
| 2.1 Espérance conditionnelle (Q13–Q14) | Propriétés de l’espérance conditionnelle | Accessible | Espérance conditionnelle discrète, indépendance, linéarité |
| 2.2 Énoncé abstrait (Q15–Q17) | Concentration par paires échangeables | Très élevé | Couples échangeables, fonction génératrice des moments, EDI |
| 3. Applications (Q18–Q27) | Variables indépendantes, permutations, Curie-Weiss | Élevé à Très élevé | McDiarmid, permutations aléatoires, tangente hyperbolique, Gibbs |
Le sujet intégral en PDF
L’énoncé complet tel qu’il a été distribué en salle d’examen.
📄 Télécharger le sujet (PDF)Correction complète et détaillée du sujet
Question par question, avec méthodes, calculs et conseils.
📄 Télécharger la correction (PDF)Disponible immédiatement après inscription email.
Structure et thèmes du sujet
Partie préliminaire (Q1–Q3) : Lois de Poisson, inégalités
Le sujet commence par des rappels et résultats classiques sur la loi de Poisson de paramètre \(\lambda\). La question 1 demande le calcul de la fonction génératrice \(\mathbb{E}[e^{uZ_\lambda}]\). Les questions 2a-2c établissent des bornes de type Chernoff par la méthode classique de Markov exponentiel : pour tout \(u, r > 0\), on majore \(\mathbb{P}(Z_\lambda \geq r)\) puis on optimise en \(u\). La question 3 est une inégalité technique sur \(\ln(k!)\) utile pour la suite.
Partie 1.1 (Q4–Q8) : Opérateur de Chen-Stein
C’est le cœur théorique de la première partie. On définit l’opérateur \(\mathcal{L}_\lambda f(n) = \lambda f(n+1) – nf(n)\) et on étudie ses propriétés. Les questions 4a-4c vérifient les structures d’espaces normés (\(\mathcal{G}_\lambda\) muni de \(\Vert f \Vert_{(\lambda)} = \mathbb{E}[\vert f(Z_\lambda) \vert]\)) et la continuité de \(\mathcal{L}_\lambda\). La question 5a est fondamentale : une variable aléatoire \(X\) suit la loi de Poisson si et seulement si \(\mathbb{E}[\mathcal{L}_\lambda f(X)] = 0\) pour toute \(f \in \mathcal{F}\). La question 6 résout l’équation de Stein \(\mathcal{L}_\lambda h_g = g\) avec condition initiale \(h_g(0) = 0\), et la question 7 établit la borne \(\Vert h_g \Vert_\infty \leq e \Vert g \Vert_\infty\). La question 8 synthétise le tout en une majoration de la distance en variation totale.
Partie 1.2 (Q9–Q12) : Approximation poissonienne
On applique la machinerie de Chen-Stein à des sommes de variables de Bernoulli. En section 1.2.1, les \(X_i\) sont indépendantes : la question 9 établit l’inégalité de Le Cam \(\sup_{A \subset \mathbb{N}} \vert \mathbb{P}(W \in A) – \mathbb{P}(Z_\lambda \in A) \vert \leq 2eB_1\) avec \(B_1 = \sum p_i^2\). La question 10 en déduit la convergence binomiale vers Poisson avec vitesse explicite. En section 1.2.2, on traite le cas dépendant avec les ensembles de dépendance \(\mathcal{D}_i\) et la borne fait intervenir \(B_1 + B_2 + B_3\).
Partie 2.1 (Q13–Q14) : Espérance conditionnelle
Cette section pose les bases de l’espérance conditionnelle discrète. On définit \(\mathbb{E}[X|Y] = \phi(Y)\) et on vérifie les propriétés classiques : positivité (Q13a), formule de la tour \(\mathbb{E}[\mathbb{E}[X|Y]] = \mathbb{E}[X]\) (Q13b), propriété de projection (Q13c-d), comportement sous indépendance (Q14a-c). Ces résultats sont indispensables pour la suite.
Partie 2.2 (Q15–Q17) : Inégalités de concentration par paires échangeables
C’est la partie la plus abstraite du sujet. On considère un couple échangeable \((W, W^\prime)\) et une fonction antisymétrique \(F\). La question 15 établit l’identité clé \(\mathbb{E}[h(W)\phi(W)] = \displaystyle\frac{1}{2}\mathbb{E}[(h(W) – h(W^\prime))F(W, W^\prime)]\) et \(\mathbb{E}[\phi(W)] = 0\). Puis on utilise la borne \(\Delta(W) \leq B\phi(W) + C\) pour contrôler la fonction génératrice des moments \(m(\theta) = \mathbb{E}[e^{\theta\phi(W)}]\) via une inéquation différentielle (Q16), d’où l’on déduit une inégalité de concentration sous-gaussienne (Q17).
Partie 3 (Q18–Q27) : Applications
Trois applications indépendantes illustrent la puissance de la méthode. La section 3.1 traite les sommes de variables indépendantes bornées pour retrouver une inégalité de type McDiarmid/Hoeffding (Q19-Q20). La section 3.2 s’intéresse aux statistiques de permutations aléatoires (Q21-Q23), avec un résultat élégant sur les points fixes. La section 3.3, la plus riche, étudie le modèle de Curie-Weiss : on construit une paire échangeable via un mécanisme de Glauber et on obtient une concentration de la magnétisation \(m(X)\) autour de \(\tanh(\beta m(X) + \beta h)\) (Q27).
Notions et chapitres testés
- Probabilités discrètes : loi de Poisson, loi binomiale, loi de Bernoulli, fonction génératrice des moments.
- Espérance et variance : espérance, espérance conditionnelle discrète, formule de la tour, variance.
- Analyse fonctionnelle : espaces normés de fonctions bornées, normes d’opérateur, continuité d’applications linéaires.
- Inégalités classiques : inégalité de Markov, borne de Chernoff, inégalité de Stirling.
- Séries et suites : sommation par parties, manipulation de séries entières, convergence dominée.
- Équations différentielles : résolution d’inéquations différentielles du premier ordre (lemme de Gronwall) dans Q16b.
- Fonctions hyperboliques : propriétés de tanh, lipschitzianité dans Q27.
- Dénombrement : permutations, transpositions, points fixes dans la section 3.2.
Niveau de difficulté et comparaison aux années précédentes
Ce sujet se situe dans la tranche haute de difficulté des épreuves de Maths D X/ENS MP. Plusieurs facteurs l’expliquent :
- Longueur : 27 questions sur 7 pages, avec des démonstrations substantielles. Peu de candidats traiteront l’intégralité du sujet.
- Originalité thématique : la méthode de Stein (Chen-Stein puis paires échangeables) est un thème de recherche rarement abordé en CPGE. Les candidats ne l’auront a priori jamais rencontré, ce qui met l’accent sur la capacité d’adaptation.
- Abstraction croissante : la partie 2.2 demande de manipuler des identités d’espérance conditionnelle dans un cadre très général, puis de résoudre une inéquation différentielle pour la fonction génératrice des moments.
- Applications variées : le modèle de Curie-Weiss (physique statistique) est un cadre inhabituel qui peut déstabiliser.
Par rapport aux années précédentes (2023-2025), ce sujet rappelle l’esprit des sujets de probabilités avancées qui mêlent analyse fonctionnelle et probabilités. Le niveau est comparable à celui du sujet Maths D 2024 (qui portait sur les processus), voire légèrement supérieur dans les questions finales. Cependant, la structure progressive et les questions de rappel (préliminaires, Q13-Q14) permettent à un candidat bien préparé de glaner des points substantiels sans nécessairement atteindre les questions les plus ardues.
Pièges et points techniques délicats
Q2b-2c : Optimisation du paramètre de Chernoff. Après avoir établi la borne \(\mathbb{P}(Z_\lambda \geq r) \leq e^{-ur}\mathbb{E}[e^{uZ_\lambda}]\), il faut optimiser en \(u\). L’erreur classique est d’oublier que le minimum est atteint en \(u = \ln(r/\lambda)\) (valide seulement si \(r \geq \lambda\)). Pour Q2c, il faut adapter la borne à \(\mathbb{P}(Z_\lambda \leq r)\) en utilisant \(u < 0\).
Q5a : Caractérisation de la loi de Poisson. Le sens « Poisson implique \(\mathbb{E}[\mathcal{L}_\lambda f(X)] = 0\) » est direct par calcul. La réciproque est plus subtile : il faut montrer que l’annulation pour toute \(f \in \mathcal{F}\) détermine la loi, en choisissant judicieusement \(f = \mathbf{1}_{\{0, \ldots, n\}}\) ou des fonctions similaires. Ne pas confondre avec la simple annulation sur un sous-ensemble de \(\mathcal{F}\).
Q6 : Résolution récursive de l’équation de Stein. L’équation \(\lambda h_g(n+1) – nh_g(n) = g(n)\) avec \(h_g(0) = 0\) se résout par récurrence. Le piège est la formule explicite : il faut exprimer \(h_g(k+1)\) comme une somme pondérée faisant intervenir \(\mathbb{P}(Z_\lambda = j)\) et \(\mathbb{P}(Z_\lambda = k)\). Un calcul mal organisé conduit à des erreurs de factoriel.
Q9a : Télescopage pour les variables indépendantes. L’identité \(\mathbb{E}[\mathcal{L}_\lambda f(W)] = \sum p_i \mathbb{E}[f(W+1) – f(W_i+1)]\) repose sur la décomposition \(W = X_i + W_i\) et l’indépendance. Le piège est de confondre \(W+1\) et \(W_i + 1\) : dans le premier cas on ajoute 1 à la somme totale, dans le second à la somme partielle.
Q15 : Identité fondamentale des paires échangeables. Pour montrer \(\mathbb{E}[h(W)\phi(W)] = \displaystyle\frac{1}{2}\mathbb{E}[(h(W) – h(W^\prime))F(W, W^\prime)]\), il faut utiliser l’antisymétrie \(F(x,y) = -F(y,x)\) et l’échangeabilité \((W, W^\prime) \overset{d}{=} (W^\prime, W)\). L’erreur fréquente est d’oublier l’une des deux propriétés dans la symétrisation.
Q16b : Inéquation différentielle sur \(m(\theta)\). Il faut passer de \(m^\prime(\theta) \leq B\theta m^\prime(\theta) + C\theta m(\theta)\) à \(\ln m(\theta) \leq \displaystyle\frac{C\theta^2}{2(1 – B\theta)}\). Cela nécessite une division par \(1 – B\theta\) (valide pour \(\theta \in [0, 1/B[\)) puis une intégration. Attention au domaine de validité et à ne pas diviser par zéro.
Méthodes attendues et stratégies de résolution
Préliminaires (Q1–Q3)
Q1 : Calcul direct par la définition de la série. On reconnaît \(\mathbb{E}[e^{uZ_\lambda}] = e^{\lambda(e^u – 1)}\) en factorisant l’exponentielle de la série. Q2a : Inégalité de Markov appliquée à \(e^{uZ_\lambda}\). Q2b : On injecte la fonction génératrice et on minimise en \(u = \ln(r/\lambda)\). Q3 : Encadrement de \(\ln(k!)\) par comparaison série-intégrale de \(\ln\).
Opérateur de Chen-Stein (Q4–Q8)
Q4a : Vérification des trois axiomes de norme. La séparation utilise le fait que \(\Vert f \Vert_{(\lambda)} = 0\) implique \(f(n) = 0\) pour tout \(n\) tel que \(\mathbb{P}(Z_\lambda = n) > 0\), c’est-à-dire pour tout \(n\). Q5a : Sens direct par calcul de \(\mathbb{E}[\lambda f(Z_\lambda + 1) – Z_\lambda f(Z_\lambda)]\) en utilisant \(\lambda \mathbb{P}(Z_\lambda = n) = (n+1)\mathbb{P}(Z_\lambda = n+1)\). Réciproque par choix de fonctions indicatrices. Q6 : Récurrence sur \(k\) en résolvant \(h_g(k+1) = \displaystyle\frac{kh_g(k) + g(k)}{\lambda}\). Q7 : Majoration de la formule explicite de Q6, en utilisant que la somme des \(\mathbb{P}(Z_\lambda = j)\) est bornée. Q8 : Pour \(g = \mathbf{1}_A – \mathbb{P}(Z_\lambda \in A)\), on a \(\mathbb{E}[g(Z_\lambda)] = 0\) et \(\Vert g \Vert_\infty \leq 1\), puis on utilise Q6, Q7 et la caractérisation de Q5.
Approximation poissonienne (Q9–Q12)
Q9a : On utilise \(W = X_i + W_i\) et la propriété \(\mathbb{E}[X_i f(W_i + 1)] = p_i \mathbb{E}[f(W_i + 1)]\) par indépendance, puis on recombine. Q9b : Application de Q8 avec la borne de Q9a et \(\Vert h_g \Vert_\infty \leq e\). Q10 : Cas particulier \(p_i = \lambda/n\) pour tout \(i\), d’où \(B_1 = \lambda^2/n\).
Espérance conditionnelle (Q13–Q14)
Questions de cours. Q13a : Si \(X \geq 0\) p.s., alors chaque terme de la somme définissant \(\phi(y)\) est positif. Q13b : Formule de la tour par sommation sur \(y\). Q14a : Sous indépendance, \(\mathbb{P}(X = x | Y = y) = \mathbb{P}(X = x)\).
Concentration (Q15–Q17)
Q15 : Développer \(\mathbb{E}[h(W)F(W, W^\prime)]\) et utiliser l’échangeabilité pour symétriser. Q16a : Dériver sous l’espérance (justifié car \(\phi\) est bornée puisque \(F\) est bornée). Q16b : Poser \(u(\theta) = \ln m(\theta)\), montrer \(u^\prime(\theta) \leq \displaystyle\frac{C\theta}{1 – B\theta}\) et intégrer. Q17 : Inégalité de Markov \(\mathbb{P}(\phi(W) \geq t) \leq e^{-\theta t}m(\theta)\), optimiser en \(\theta = t/(C + Bt)\), puis traiter \(-\phi(W)\) par symétrie de l’échangeabilité.
Applications (Q18–Q27)
Q18a : L’échangeabilité de \((S_N, S_N^\prime)\) vient de la construction par permutation de l’indice \(I\). Q18b : Par symétrie, \(\mathbb{E}[X_I | S_N] = \displaystyle\frac{1}{N}\sum \mathbb{E}[X_i | S_N] = \displaystyle\frac{S_N}{N}\). Q19 : Appliquer Q17 avec \(F(x,y) = N(x-y)\) après avoir calculé \(B\) et \(C\) à partir des bornes sur \(\vert X_i – \mu_i \vert\). Q27 : Utiliser la lipschitzianité de \(\tanh\) (de constante 1) pour borner l’écart, puis appliquer le théorème de concentration.
Conseils pour les futurs candidats
Stratégie de composition. Le sujet indique explicitement que les parties 3.1, 3.2 et 3.3 sont indépendantes entre elles. En cas de blocage dans la partie 2.2, il est judicieux de passer directement à la partie 3.1 (la plus accessible des trois applications) en admettant le résultat de concentration de Q17. La partie 2.1 sur l’espérance conditionnelle est un réservoir de points à ne pas négliger.
Maîtriser les fondamentaux de probabilité. Les propriétés de la loi de Poisson, la relation de récurrence \(\lambda \mathbb{P}(Z_\lambda = n) = (n+1)\mathbb{P}(Z_\lambda = n+1)\), et les techniques de fonction génératrice sont des outils indispensables. Révisez les lois discrètes classiques et leurs approximations.
S’entraîner aux bornes de concentration. La méthode de Chernoff (inégalité de Markov exponentielle + optimisation) revient dans de nombreuses épreuves de probabilités. C’est un schéma de preuve systématique à automatiser : écrire \(\mathbb{P}(X \geq t) \leq e^{-\theta t}\mathbb{E}[e^{\theta X}]\), calculer ou borner la MGF, puis optimiser en \(\theta\).
Pratiquer l’espérance conditionnelle discrète. Bien que le programme l’aborde, c’est un outil souvent mal maîtrisé par les candidats. Les propriétés de Q13-Q14 (formule de la tour, factorisation sous indépendance, linéarité) sont des réflexes à acquérir pour tout sujet de probabilités avancées.
Se familiariser avec les techniques hors programme mais guidées. La méthode de Stein n’est pas au programme, mais le sujet est entièrement autoporteur. L’enjeu est de suivre les indications pas à pas, sans chercher à reconnaître un résultat connu. Les candidats habitués aux sujets longs et progressifs seront avantagés.
Travailler les fonctions hyperboliques : la tangente hyperbolique intervient naturellement en physique statistique et en théorie de l’information. Sa lipschitzianité (\(\vert \tanh(a) – \tanh(b) \vert \leq \vert a – b \vert\)) est un outil clé pour la dernière partie.