Rédigé et vérifié par un professeur diplômé de l’École Polytechnique. Découvrir le professeur

Le sujet de Mathématiques Appliquées 1 ESSEC/HEC ECG 2026, proposé le 23 avril lors de la session BCE, est un problème unique de 27 questions articulé autour de la théorie de l’acquisition comprimée (compressed sensing). L’épreuve dure 4 heures, sans calculatrice ni document autorisé. Le sujet mêle de manière ambitieuse algèbre linéaire, probabilités continues et informatique Python dans un cadre unifié et progressif. Le niveau global est élevé : les questions informatiques d’entrée sont abordables, mais la difficulté croît fortement à partir du lemme de Johnson-Lindenstrauss et culmine dans la dernière partie sur la reconstruction par minimisation de la norme \(\ell^1\).

Synthèse du sujet
Partie du sujetThèmeNiveauNotions mobilisées
Préliminaire informatique (Q1-3)Norme euclidienne et test d’isométrie en PythonAccessibleNorme, produit matriciel numpy, fonctions Python
Lemme de Johnson-Lindenstrauss (Q4-10)Matrices gaussiennes aléatoires et concentrationÉlevéLoi normale, fonction génératrice, inégalité de Markov
ε-isométries pour ensembles sporadiques (Q11-19)Combinatoire et réseaux de couvertureÉlevéCombinaisons, Cauchy-Schwarz, suites récurrentes
L’acquisition comprimée (Q20-27)Reconstruction par minimisation de la norme ℓ¹Très élevéNorme ℓ¹, support, injectivité, décomposition en blocs

Le sujet intégral en PDF

L’énoncé complet tel qu’il a été distribué en salle d’examen.

📄 Télécharger le sujet (PDF)
🎁 EN BONUS

Correction complète et détaillée du sujet

Question par question, avec méthodes, calculs et conseils.

📄 Télécharger la correction (PDF)

Disponible immédiatement après inscription email.


Structure et thèmes du sujet

Le sujet s’organise en quatre parties clairement identifiées, toutes reliées par le fil conducteur de l’acquisition comprimée : étant donné un vecteur « creux » (sparse) \(Y \in \mathcal{M}_{n,1}(\mathbb{R})\) et une matrice \(A \in \mathcal{M}_{m,n}(\mathbb{R})\) avec \(m\) bien plus petit que \(n\), peut-on reconstruire \(Y\) à partir du seul produit \(AY\) ?

Préliminaire informatique (Q1-3)

Cette entrée en matière pose les outils numériques : écriture d’une fonction Norme(X) renvoyant \(\Vert X \Vert = \sqrt{\sum x_k^2}\), interprétation de sorties console (normalisation d’un vecteur, vérification d’une condition d’isométrie), puis programmation d’une fonction EstIsom testant si une matrice \(A\) est une \((\varepsilon, \mathcal{X})\)-isométrie pour un ensemble fini de vecteurs. L’objectif est de familiariser le candidat avec la notion centrale d’isométrie approchée avant de passer à la théorie.

Lemme de Johnson-Lindenstrauss (Q4-10)

C’est le cœur probabiliste du sujet. On construit des matrices aléatoires \(M(\omega) = \displaystyle\frac{1}{\sqrt{m}}(G_{i,j}(\omega))\) dont les coefficients suivent la loi normale \(\mathcal{N}(0,1)\). On introduit les variables aléatoires \(Y_i = \sum_{j=1}^{n} x_j G_{i,j}\) et \(Z = \displaystyle\frac{1}{m}\sum_{i=1}^{m} Y_i^2 = \Vert MX \Vert^2\). Les questions guident vers un résultat de concentration : \(\mathbb{P}(Z\) > \((1+\varepsilon)) \leq e^{-m\varepsilon^2/8}\), via la technique de Chernoff (fonction génératrice des moments + inégalité de Markov). Le passage final (Q9-10) montre l’existence d’une \((\varepsilon, \mathcal{X})\)-isométrie dès que \(m\) > \(\displaystyle\frac{8\ln(2r)}{\varepsilon^2}\), et demande une implémentation Python.

ε-isométries pour les ensembles sporadiques (Q11-19)

On passe des ensembles finis aux ensembles de vecteurs k-creux \(\mathcal{C}_k\) (au plus \(k\) composantes non nulles). L’enjeu est de montrer qu’une matrice gaussienne aléatoire est, avec grande probabilité, une \((\varepsilon, \mathcal{C}_k)\)-isométrie. La démarche repose sur l’inégalité de Cauchy-Schwarz (Q13), des bornes sur la norme d’opérateur (Q14-15), la construction de réseaux finis \(\mathcal{X}_{T,\delta}\) (Q16-17), et un argument combinatoire sur \(C_{n}^{k}\) (Q19) aboutissant au seuil \(m\) > \(32\displaystyle\frac{\ln(12en/k\delta)}{\delta^2} \cdot k\).

L’acquisition comprimée (Q20-27)

La dernière partie exploite les isométries précédentes pour établir deux résultats d’unicité de la reconstruction. La première caractérisation (Q22) montre que si \(k \leq \displaystyle\frac{n}{3}\) et \(A\) est une \((\varepsilon, \mathcal{C}_{2k})\)-isométrie, alors \(Y\) est l’unique solution de \(AX = B\) dans \(\mathcal{C}_k\). La seconde (Q23-27), bien plus technique, prouve que \(Y\) est l’unique minimiseur de \(|X| = \sum |x_i|\) parmi les solutions de \(AX = B\), via une décomposition astucieuse en blocs \(T_1, \ldots, T_{r+1}\) et un argument télescopique.


Notions et chapitres testés

  • Algèbre linéaire : matrices, produit matriciel, rang, noyau, sous-espaces vectoriels, normes euclidiennes, injectivité d’applications linéaires.
  • Probabilités : loi normale \(\mathcal{N}(0,1)\), espérance et variance, fonction génératrice des moments \(\mathbb{E}(e^{tY^2})\), indépendance, inégalité de Markov, bornes de Chernoff.
  • Analyse : intégrale de Gauss, étude de fonctions sur un intervalle (monotonie, convexité), suites récurrentes et convergence, séries (majoration de \(e^k\)).
  • Dénombrement : combinaisons \(C_{n}^{k}\), cardinal d’ensembles de parties, arguments de comptage.
  • Informatique Python : manipulation de tableaux numpy, produit matriciel (np.dot), simulation aléatoire (np.random.normal), fonctions et boucles.

Niveau de difficulté et comparaison aux années précédentes

Ce sujet se situe dans la tranche haute de difficulté des épreuves ESSEC/HEC Maths Appliquées. Comparé aux sessions 2023-2025 qui proposaient des sujets structurés autour de thématiques plus classiques (chaînes de Markov, optimisation convexe, matrices symétriques), le cru 2026 frappe par la modernité de son thème et par l’intégration poussée de plusieurs domaines du programme.

Les questions Q1 à Q5 restent dans l’esprit habituel du préliminaire et sont accessibles à tout candidat bien préparé. En revanche, les questions Q6 à Q8 sur la concentration gaussienne constituent un palier net : le calcul de la fonction génératrice des moments et l’optimisation du paramètre de Chernoff sont des techniques rarement vues à ce niveau de détail dans les sujets ECG. Les questions Q20 à Q27 sur la reconstruction \(\ell^1\) sont d’un niveau très élevé, comparables aux questions de fin des sujets les plus sélectifs des années précédentes.

Un candidat solide peut espérer traiter proprement les 15 premières questions et glaner des points sur les suivantes. Le barème valorise certainement la rigueur des premières parties.


Pièges et points techniques délicats

Q1b — Normalisation d’un vecteur : le second print calcule Norme((1/Norme(X))*X). Si tu ne vois pas que \(\displaystyle\frac{X}{\Vert X \Vert}\) est un vecteur de norme 1, tu risques de te lancer dans un calcul inutile. La réponse est simplement 1.0.

Q2 — Vérification d’isométrie : il faut calculer \(AX\) avec \(A = \begin{pmatrix} 2 & 1 \\ 0 & 1 \\ 1 & 0 \end{pmatrix}\) et \(X = \begin{pmatrix} 1 \\ -1 \end{pmatrix}\), ce qui donne \(AX = \begin{pmatrix} 1 \\ -1 \\ 1 \end{pmatrix}\). On obtient \(\Vert AX \Vert^2 = 3\) et \(\Vert X \Vert^2 = 2\), puis on vérifie \(0.4 \leq 1.5 \leq 1.6\). Le piège est d’oublier que la condition porte sur le rapport \(\displaystyle\frac{\Vert AX \Vert^2}{\Vert X \Vert^2}\).

Q5a — Loi de \(x_j G_{i,j}\) : attention, \(x_j\) est une constante, pas une variable aléatoire. Par propriété de la loi normale, \(x_j G_{i,j} \sim \mathcal{N}(0, x_j^2)\). Ne confonds pas avec un produit de deux v.a.

Q6 — Calcul de \(\mathbb{E}(e^{tY_i^2})\) : c’est le point technique clé de la partie. Il faut reconnaître que l’intégrale \(\displaystyle\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{+\infty} e^{-(1-2t)\displaystyle\frac{x^2}{2}}\,\mathrm{d}x\) est une intégrale de Gauss de paramètre \((1-2t)\). L’erreur fréquente est d’oublier la condition \(1-2t\) > \(0\), soit \(t\) < \(\displaystyle\frac{1}{2}\), pour que l’intégrale converge.

Q8c — Inégalité \(-t – \displaystyle\frac{1}{2}\ln(1-2t) \leq 2t^2\) : il faut étudier la fonction \(g(t) = 2t^2 + t + \displaystyle\frac{1}{2}\ln(1-2t)\) et montrer \(g(t) \geq 0\) sur \(\left]0, \displaystyle\frac{1}{4}\right]\). Le piège est de vouloir utiliser un développement de Taylor tronqué ; il est plus efficace de montrer que \(g^\prime(t) \leq 0\) et \(g(0)=0\), ce qui donne directement \(g \geq 0\) par décroissance… Attention au signe, cela donne en fait \(g \leq 0\). Il faut étudier \(g\) avec soin.

Q23 — Montrer \(Z = 0\) : c’est le pivot de la partie finale. Le raisonnement est court mais subtil : \(AZ = AY – AX = B – B = 0\), et puisque \((Z) \leq 3k\), on a \(Z \in \mathcal{C}_{3k}\). L’isométrie \((\varepsilon, \mathcal{C}_{3k})\) donne \((1-\varepsilon)\Vert Z \Vert^2 \leq 0\), d’où \(Z = 0\). Le piège est de ne pas voir que la condition \(\varepsilon\) < \(\displaystyle\frac{1}{3}\) garantit \(1-\varepsilon\) > \(0\).


Méthodes attendues et stratégies de résolution

Q1-3 (Informatique) : pour Norme(X), utilise np.sqrt(np.sum(X**2)). Pour EstIsom, boucle sur les vecteurs de la liste et vérifie la double inégalité. Ces questions sont à traiter rapidement pour sécuriser des points.

Q4 (Simulation de \(M\)) : une seule ligne suffit : rd.normal(0, 1, [m, n]) / np.sqrt(m). Ne pas oublier le facteur \(\displaystyle\frac{1}{\sqrt{m}}\).

Q5 (Lois et espérances) : exploite les propriétés de la loi normale par combinaison linéaire. Montre que \(Y_i \sim \mathcal{N}(0, \Vert X \Vert^2) = \mathcal{N}(0,1)\) puisque \(\Vert X \Vert = 1\). Pour Q5c, développe \(\Vert MX \Vert^2\) en utilisant \((MX)_i = \displaystyle\frac{1}{\sqrt{m}} Y_i\).

Q6-8 (Concentration) : la méthode de Chernoff est la clé. Applique l’inégalité de Markov à \(e^{tmZ}\), exploite l’indépendance pour factoriser l’espérance, puis optimise en \(t = \displaystyle\frac{\varepsilon}{4}\). Pour Q8c, étudie la dérivée de \(g(t) = -t – \displaystyle\frac{1}{2}\ln(1-2t) – 2t^2\).

Q9-10 (Existence d’isométries) : utilise l’union bound (sous-additivité de la probabilité) : la probabilité qu’au moins un \(X_i\) ne vérifie pas l’isométrie est majorée par \(2r \cdot e^{-m\varepsilon^2/8}\). Si cette quantité est strictement inférieure à 1, il existe une réalisation \(M\) convenable.

Q13 — Cauchy-Schwarz : la démonstration progressive (d’abord \(|x_i y_i| \leq x_i^2 + y_i^2\) pour les composantes, puis passage à \(\Vert Y \Vert = 1\), puis cas général) est un classique qu’il faut maîtriser. Pense à traiter le cas \(Y = 0\) séparément pour conclure que l’inégalité est vraie même si l’un des vecteurs est nul.

Q17-19 (Réseaux et combinatoire) : la stratégie est d’approcher tout vecteur de norme 1 de \(\mathcal{Q}(T)\) par un élément d’un réseau \(\mathcal{X}_{T,\delta}\) fini, de contrôler l’erreur par une suite géométrique (Q16-17b), puis de passer à l’union sur tous les \(T \in \mathcal{T}_k\). Pour Q19, la borne \(2 C_{n}^{k} \leq \left(\displaystyle\frac{en}{k}\right)^k\) se démontre via la majoration \(e^k \geq \displaystyle\frac{k^k}{k!}\) obtenue par troncature de la série de la fonction exponentielle.

Q20-27 (Acquisition comprimée) : pour la première caractérisation, l’injectivité sur \(\mathcal{C}_{2k}\) suffit. Pour la seconde, la stratégie repose sur la décomposition \(Z_{\bar{S}} = \sum_{i=1}^{r+1} Z_{T_i}\) en blocs de taille \(2k\) ordonnés par valeurs absolues décroissantes. L’inégalité triangulaire inverse et les propriétés d’isométrie fournissent une contradiction si \(Z \neq 0\).


Conseils pour les futurs candidats

Maîtrise les techniques de concentration gaussienne. Ce sujet confirme une tendance récente : les épreuves ESSEC/HEC valorisent de plus en plus la capacité à manipuler des majorations probabilistes fines (Markov, Chernoff, union bound). Entraîne-toi sur des exercices de fonctions génératrices des moments appliquées à la loi normale.

Révise l’inégalité de Cauchy-Schwarz sous toutes ses formes. La question 13 est un classique, mais beaucoup de candidats perdent des points par manque de rigueur dans les cas limites. Travaille les preuves « en escalier » (composante par composante, puis vecteur normalisé, puis cas général).

Entraîne-toi en Python sur des problèmes d’algèbre linéaire. Les questions d’informatique rapportent des points précieux et sont souvent sous-investies. Maîtrise np.dot, np.array, les boucles for et la simulation avec np.random.normal.

Travaille les arguments de dénombrement et de couverture. Les parties Q11-19 reposent sur une combinaison d’algèbre linéaire et de dénombrement (nombre de parties de \(\{1, \ldots, n\}\), majoration de \(C_{n}^{k}\)). Ces notions sont au programme mais rarement travaillées en profondeur.

Gère ton temps. Avec 27 questions en 4 heures, le rythme est soutenu. Sécurise les 10 premières questions (préliminaire + début Johnson-Lindenstrauss), puis avance méthodiquement. Les questions Q23-27 sont réservées aux meilleurs candidats ; ne t’y aventure que si le reste est solidement traité.

Logo-excellence-maths
Préparer BCE ECG Appliquees avec un professeur de Polytechnique
Tu vises ce concours l'année prochaine ? Un accompagnement individuel pour transformer ta préparation et maximiser ta note le jour J.