Rédigé et vérifié par un professeur diplômé de l’École Polytechnique. Découvrir le professeur

L’épreuve spécifique de Mathématiques e3a-Polytech filière MPI 2026, d’une durée de 4 heures et sans calculatrice, se compose de trois exercices indépendants. Le spectre thématique est large : convexité et optimisation probabiliste, séries et fonctions spéciales liées à la fonction zêta de Riemann, et étude spectrale d’une matrice structurée sur \(\mathbb{R}\) puis \(\mathbb{C}\). Le niveau global est équilibré, avec des questions d’amorce accessibles dans chaque exercice, mais des finales exigeantes qui départageront les candidats solides.

Synthèse du sujet
Partie du sujetThèmeNiveauNotions mobilisées
Exercice 1 — Préliminaires (Q1-3)Convexité et matrices symétriques définies positivesAccessibleConvexité, inégalité de Jensen, polynôme annulateur, valeurs propres
Exercice 1 — Espérance de X (Q4)Modélisation probabilisteAccessibleVariable aléatoire de Bernoulli, espérance, linéarité
Exercice 1 — Minimisation (Q5)Optimisation sous contraintesÉlevéFonctions de plusieurs variables, matrice hessienne, convexité de Jensen
Exercice 2 — Questions de cours (Q1-2)Séries de Riemann et séries entièresAccessibleSérie de Riemann, rayon de convergence, série géométrique
Exercice 2 — Fonctions d’Eisenstein (Q3-6)Étude des fonctions \(E_k\)ÉlevéConvergence absolue, périodicité, parité, dérivation terme à terme
Exercice 2 — Développement en série (Q7-10)Double sommation et formule expliciteTrès élevéInterversion de sommes, fonction zêta, série entière
Exercice 3 — Cas \(\mathbb{K} = \mathbb{R}\) (Q1.1-1.8)Diagonalisation d’une matrice structuréeÉlevéRang, sous-espaces propres, matrice de passage
Exercice 3 — Cas \(\mathbb{K} = \mathbb{C}\) (Q2.1-2.2)Condition de non-diagonalisabilitéTrès élevéPolynôme caractéristique, multiplicité algébrique vs géométrique

Le sujet intégral en PDF

L’énoncé complet tel qu’il a été distribué en salle d’examen.

📄 Télécharger le sujet (PDF)
🎁 EN BONUS

Correction complète et détaillée du sujet

Question par question, avec méthodes, calculs et conseils.

📄 Télécharger la correction (PDF)

Disponible immédiatement après inscription email.


Structure et thèmes du sujet

Exercice 1 : Convexité, probabilités et optimisation

Cet exercice est le plus long du sujet et se décompose en deux grandes parties articulées autour de questions préliminaires communes. Les questions 1 à 3 établissent des outils : la convexité de \(t \mapsto t^n\) sur \(]0,1[\), l’inégalité de Jensen associée, puis l’étude spectrale de la matrice \(I_p + J\) où \(J\) est la matrice dont tous les coefficients valent 1. Ces résultats seront réinvestis en fin d’exercice.

La partie probabiliste (question 4) modélise \(n\) épreuves indépendantes à \(r\) résultats possibles. La variable aléatoire \(X\) compte le nombre de résultats jamais obtenus. On exprime \(X\) comme somme d’indicatrices \(X_j\), puis on calcule l’espérance \(\mathrm{E}(X) = \displaystyle\sum_{j=1}^{r}(1-x_j)^n\).

La question 5 constitue un vrai problème d’optimisation multivariable : on minimise \(\mathrm{E}(X)\) sous la contrainte \(\sum x_j = 1\) avec \(x_k > 0\). Il faut passer à une fonction \(h\) de \(r-1\) variables sur un ouvert borné \(U\), calculer le gradient et la matrice hessienne, montrer que le point critique est \(x_1 = \cdots = x_r = \displaystyle\frac{1}{r}\), puis conclure que c’est un minimum global grâce à l’inégalité de Jensen.

Exercice 2 : Séries et fonctions d’Eisenstein

L’exercice 2 s’ouvre sur deux questions de cours classiques : convergence de la série \(\displaystyle\sum \displaystyle\frac{1}{n^x}\) (fonction zêta) et somme de la série géométrique. On définit ensuite les fonctions \(E_1(x) = \displaystyle\frac{1}{x} + \displaystyle\sum_{n=1}^{+\infty}\left(\displaystyle\frac{1}{x-n} + \displaystyle\frac{1}{x+n}\right)\) et \(E_k(x)\) pour \(k \geq 2\).

Les questions 3 à 6 établissent les propriétés fondamentales : existence, 1-périodicité, parité, et la relation de récurrence \(E_k^\prime(x) = -k\,E_{k+1}(x)\) qui relie les fonctions entre elles. La question 6.2 montre que \(E_k = \displaystyle\frac{(-1)^{k-1}}{(k-1)!}\,E_1^{(k-1)}\), ce qui réduit l’étude à \(E_1\).

Les questions 7 à 10 sont les plus techniques : on développe en série entière, on intervertit des sommations doubles pour obtenir la formule faisant intervenir la fonction \(\zeta(2s)\), et on dérive pour obtenir la formule générale de \(E_k(x)\) en termes de coefficients binomiaux et de valeurs de \(\zeta\).

Exercice 3 : Étude spectrale d’une matrice structurée

On étudie une matrice \(M \in \mathcal{M}_n(\mathbb{K})\) dont les \(n-1\) premières lignes sont nulles sauf en dernière colonne, et dont la dernière ligne est \((a_1, a_2, \ldots, a_n)\). La partie 1 traite le cas \(\mathbb{K} = \mathbb{R}\) : on montre que \(M\) est diagonalisable, de rang 2, avec 0 comme valeur propre de multiplicité \(n-2\), et deux valeurs propres non nulles \(\lambda_1, \lambda_2\) vérifiant \(\lambda^2 – \lambda a_n – \displaystyle\sum_{j=1}^{n-1}a_j^2 = 0\). La partie 2 sur \(\mathbb{C}\) caractérise la non-diagonalisabilité par les conditions \(\displaystyle\sum_{j=1}^{n-1}a_j^2 = 0\) ou \(a_n^2 + 4\displaystyle\sum_{j=1}^{n-1}a_j^2 = 0\).


Notions et chapitres testés

  • Analyse — Fonctions convexes : définition, dérivée seconde positive, inégalité de Jensen (programme de première année).
  • Analyse — Séries numériques : séries de Riemann, convergence absolue, comparaison série-intégrale.
  • Analyse — Séries entières : rayon de convergence, dérivation terme à terme, interversion de sommations.
  • Analyse — Fonctions de plusieurs variables : gradient, matrice hessienne, extrema locaux, classe \(\mathcal{C}^2\).
  • Algèbre linéaire — Réduction : polynôme annulateur, valeurs propres, sous-espaces propres, diagonalisation, matrice de passage.
  • Algèbre bilinéaire — Matrices symétriques : matrices symétriques réelles définies positives, lien avec les valeurs propres.
  • Probabilités : variables aléatoires discrètes, loi de Bernoulli, linéarité de l’espérance, modélisation.

Niveau de difficulté et comparaison aux années précédentes

Ce sujet 2026 se situe dans la moyenne haute des sujets e3a-Polytech MPI. La structure en trois exercices indépendants est classique et permet de grappiller des points dans chaque partie. Comparé aux sessions 2023-2025, on note :

  • Un exercice 1 plus ambitieux que d’habitude : l’optimisation multivariable sous contrainte avec la hessienne dépasse le niveau habituel des questions de probabilités e3a. La conclusion par Jensen est élégante mais demande du recul.
  • Un exercice 2 dans la tradition des sujets de séries : les fonctions d’Eisenstein sont un classique des concours (déjà vues sous d’autres formes à Centrale et Mines). Le guidage est bon, mais les interversions de sommes en fin d’exercice sont techniques.
  • Un exercice 3 bien calibré : la partie \(\mathbb{R}\) est abordable pour tout candidat maîtrisant la réduction. La partie \(\mathbb{C}\) est plus fine et constitue un bon discriminant.

Globalement, un candidat bien préparé devrait viser 60-70% du sujet en traitant les questions accessibles de chaque exercice. Les 30% restants départagent les très bons candidats.


Pièges et points techniques délicats

Question 1 — Convexité sur un ouvert. La fonction \(\varphi : t \mapsto t^n\) est à étudier sur \(]0,1[\), un intervalle ouvert. N’oublie pas de vérifier que \(\varphi^{\prime\prime}(t) = n(n-1)t^{n-2} \geq 0\) pour \(n \geq 2\) et \(t > 0\). Attention : la convexité stricte est nécessaire pour la conclusion finale (question 5.6.3).

Question 3.1 — Polynôme annulateur de J. Un piège classique : la matrice \(J\) de taille \(p\) dont tous les coefficients valent 1 vérifie \(J^2 = pJ\). Le polynôme annulateur est donc \(X^2 – pX = X(X-p)\). Ne pas confondre avec \(X^2 – X\) (qui correspondrait à une matrice de projection).

Question 4.1 — Loi de \(X_j\). Attention au sens de la variable : \(X_j = 0\) si le résultat \(\alpha_j\) est obtenu au moins une fois, et \(X_j = 1\) s’il n’est jamais obtenu. Donc \(\mathrm{P}(X_j = 1) = (1-x_j)^n\) et \(\mathrm{P}(X_j = 0) = 1 – (1-x_j)^n\). L’inversion par rapport à la convention habituelle des indicatrices peut dérouter.

Question 5.3 — Substitution de variable. Pour passer de \(f(x_1, \ldots, x_r)\) à \(h(x_1, \ldots, x_{r-1})\), il faut poser \(x_r = 1 – \displaystyle\sum_{j=1}^{r-1} x_j\). La dérivation en chaîne qui s’ensuit est source d’erreurs de signe dans le calcul du gradient.

Question 8 — Interversion de sommes. Pour développer \(\displaystyle\frac{1}{n-x} – \displaystyle\frac{1}{n+x}\) en série entière et sommer sur \(n\), il faut justifier soigneusement l’interversion des sommations. Le théorème de Fubini pour les séries à termes positifs est la clé.

Question 1.6 (Exercice 3) — Équation aux valeurs propres. En résolvant \(MX = \lambda X\), il faut bien exploiter la structure creuse de \(M\) : les \(n-1\) premières équations donnent \(a_j x_n = \lambda x_j\) pour \(j \leq n-1\), et la dernière donne une relation quadratique. Ne pas oublier que \(\lambda \neq 0\) est une hypothèse ici.


Méthodes attendues et stratégies de résolution

Exercice 1

  • Q1-2 : Calcul direct de \(\varphi^{\prime\prime}\), puis écriture de l’inégalité de Jensen : pour des réels \(t_j \in ]0,1[\) et des poids \(\lambda_j > 0\) de somme 1, \(\left(\displaystyle\sum \lambda_j t_j\right)^n \leq \displaystyle\sum \lambda_j t_j^n\).
  • Q3 : Vérifier \(J^2 = pJ\) par calcul matriciel. Les valeurs propres de \(J\) sont 0 et \(p\), donc celles de \(I_p + J\) sont 1 et \(1+p\), toutes strictement positives. La symétrie de \(I_p + J\) combinée à la positivité des valeurs propres donne le caractère défini positif.
  • Q4 : Identifier \(X_j\) comme variable de Bernoulli de paramètre \((1-x_j)^n\), écrire \(X = \displaystyle\sum_{j=1}^{r} X_j\), et conclure par linéarité de l’espérance.
  • Q5.5 : Annuler le gradient de \(h\) pour trouver que toutes les dérivées partielles sont égales, ce qui impose \(x_1 = \cdots = x_{r-1}\) et par symétrie \(x_r = \displaystyle\frac{1}{r}\).
  • Q5.6 : La hessienne en \(b = \left(\displaystyle\frac{1}{r}, \ldots, \displaystyle\frac{1}{r}\right)\) est proportionnelle à \(I_{r-1} + J_{r-1}\), dont on a montré le caractère défini positif en Q3. Pour le minimum global, appliquer Jensen à \(\varphi(t) = t^n\) convexe avec les poids \(\displaystyle\frac{1}{r}\).

Exercice 2

  • Q1-2 : Rappeler que \(\displaystyle\sum \displaystyle\frac{1}{n^x}\) converge si et seulement si \(x > 1\), et que \(\displaystyle\sum_{k \geq 0} t^k = \displaystyle\frac{1}{1-t}\) pour \(\vert t \vert < 1\).
  • Q3-4 : Pour \(E_1\), regrouper \(\displaystyle\frac{1}{x-n} + \displaystyle\frac{1}{x+n} = \displaystyle\frac{2x}{x^2 – n^2}\) et comparer à \(\displaystyle\frac{1}{n^2}\). Pour \(E_k\) avec \(k \geq 2\), utiliser la convergence absolue directe.
  • Q5 : La 1-périodicité vient de la réécriture de la somme après translation d’indice. La parité s’étudie en substituant \(-x\) à \(x\).
  • Q6 : Dériver terme à terme (justifier par convergence uniforme sur tout compact) pour obtenir \(E_k^\prime(x) = -k\,E_{k+1}(x)\).
  • Q7-9 : Développer \(\displaystyle\frac{1}{n-x} = \displaystyle\frac{1}{n} \cdot \displaystyle\frac{1}{1 – x/n} = \displaystyle\sum_{k \geq 0} \displaystyle\frac{x^k}{n^{k+1}}\), puis intervertir les sommes en \(n\) et \(k\) pour faire apparaître \(\zeta(2s)\).
  • Q10 : Dériver \(k-1\) fois la formule de \(E_1\) en utilisant la relation \(E_k = \displaystyle\frac{(-1)^{k-1}}{(k-1)!}E_1^{(k-1)}\) et la formule de Leibniz.

Exercice 3

  • Q1.1-1.2 : La matrice \(M\) est symétrique réelle (sur \(\mathbb{R}\)), donc diagonalisable par le théorème spectral. Le rang se détermine par opérations élémentaires : \(\mathrm{rg}(M) = 2\).
  • Q1.3-1.4 : Comme \(\mathrm{rg}(M) = 2\), le noyau est de dimension \(n-2\), et 0 est valeur propre de multiplicité \(n-2\). Les deux autres valeurs propres sont racines de \(\lambda^2 – \lambda a_n – \displaystyle\sum_{j=1}^{n-1}a_j^2 = 0\).
  • Q1.5-1.8 : Déterminer les bases des sous-espaces propres et construire la matrice de passage \(P\).
  • Q2.1 : Sur \(\mathbb{C}\), \(M\) n’est plus nécessairement symétrique au sens hermitien. La non-diagonalisabilité survient quand une valeur propre a une multiplicité algébrique supérieure à sa multiplicité géométrique, ce qui correspond aux deux conditions données.

Conseils pour les futurs candidats

Priorité n°1 : la réduction des endomorphismes. Présente dans les exercices 1 et 3, la diagonalisation est incontournable aux concours e3a-Polytech. Travaille systématiquement le calcul de valeurs propres, la détermination de sous-espaces propres et la construction de matrices de passage. Entraîne-toi aussi sur les polynômes annulateurs et caractéristiques.

Priorité n°2 : les séries et fonctions spéciales. L’exercice 2 mobilise séries de Riemann, séries entières, dérivation terme à terme et interversion de sommations. Ces techniques reviennent chaque année. Assure-toi de maîtriser les théorèmes de convergence uniforme et de Fubini discret pour les séries à termes positifs.

Priorité n°3 : l’optimisation multivariable. L’exercice 1 montre que les fonctions de plusieurs variables ne sont pas un chapitre annexe. Révise le calcul de gradient, de hessienne, et les critères de minimum local (hessienne définie positive). L’inégalité de Jensen est un outil puissant : sache la formuler et l’appliquer dans différents contextes.

Plus généralement, ce sujet confirme la tendance des concours e3a-Polytech à proposer des exercices transversaux mêlant algèbre linéaire, analyse et probabilités. Ne néglige aucun chapitre du programme, et consacre un temps significatif à la rédaction soignée des justifications — les correcteurs y sont particulièrement sensibles sur ce concours.

Logo-excellence-maths
Préparer e3a-Polytech MP/MPI avec un professeur de Polytechnique
Tu vises ce concours l'année prochaine ? Un accompagnement individuel pour transformer ta préparation et maximiser ta note le jour J.