Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec le niveau d’exigence attendu en classe préparatoire. Découvrir le professeur

La loi normale — ou loi gaussienne — est sans doute la distribution de probabilité la plus importante en mathématiques. Du théorème de Moivre-Laplace aux intervalles de confiance, elle irrigue les sujets de concours et constitue un passage obligé du programme de Terminale comme de CPGE. Ce cours te donne les outils complets pour maîtriser la loi normale en tant que variable aléatoire : densité, espérance, variance, intégrale de Gauss, stabilité par somme, théorème central limite et fonction caractéristique. Tu trouveras ici les démonstrations exigibles au concours, 8 exercices corrigés classés par difficulté et les pièges à éviter.

I. Définition et densité de la loi normale

A. Densité de la loi normale \(\mathcal{N}(\mu, \sigma^2)\)

La loi normale est une loi à densité définie sur \(\mathbb{R}\) tout entier. Elle dépend de deux paramètres réels : un paramètre de position \(\mu\) et un paramètre de dispersion \(\sigma\) > \(0\).

Définition — Loi normale \(\mathcal{N}(\mu, \sigma^2)\)

Soient \(\mu \in \mathbb{R}\) et \(\sigma\) > \(0\). On dit qu’une variable aléatoire réelle \(X\) suit la loi normale de paramètres \(\mu\) et \(\sigma^2\), notée \(X \sim \mathcal{N}(\mu, \sigma^2)\), si \(X\) admet pour densité :

\(f(x) = \displaystyle\frac{1}{\sigma\sqrt{2\pi}} \exp\!\left(-\displaystyle\frac{(x – \mu)^2}{2\sigma^2}\right), \quad x \in \mathbb{R}\)

Vérifions que \(f\) est bien une densité :

  • \(f(x)\) > \(0\) pour tout \(x \in \mathbb{R}\) (la fonction exponentielle est strictement positive).
  • \(\displaystyle\int_{-\infty}^{+\infty} f(x)\,\mathrm{d}x = 1\) — c’est la conséquence de l’intégrale de Gauss, que nous démontrerons en section II.

Rôle des paramètres. Le paramètre \(\mu\) est l’espérance de \(X\) : il fixe le centre de la distribution. Le paramètre \(\sigma^2\) est la variance de \(X\) : plus \(\sigma\) est grand, plus la distribution est étalée autour de \(\mu\). L’écart-type est \(\sigma\).

B. Loi normale centrée réduite \(\mathcal{N}(0, 1)\)

Un cas particulier joue un rôle central dans toute la théorie : la loi obtenue pour \(\mu = 0\) et \(\sigma = 1\).

Définition — Loi normale centrée réduite

La loi normale centrée réduite \(\mathcal{N}(0, 1)\) est la loi de densité :

\(\varphi(x) = \displaystyle\frac{1}{\sqrt{2\pi}} \exp\!\left(-\displaystyle\frac{x^2}{2}\right), \quad x \in \mathbb{R}\)

Une variable aléatoire suivant cette loi est traditionnellement notée \(Z\).

Propriétés immédiates de \(\varphi\) :

  • Parité : \(\varphi(-x) = \varphi(x)\) pour tout \(x \in \mathbb{R}\) — la densité est symétrique par rapport à l’axe des ordonnées.
  • Maximum : \(\varphi\) atteint son maximum en \(x = 0\), avec \(\varphi(0) = \displaystyle\frac{1}{\sqrt{2\pi}} \approx 0{,}399\).
  • Points d’inflexion : \(\varphi^{\prime\prime}(x) = (x^2 – 1)\,\varphi(x)\), d’où les points d’inflexion en \(x = -1\) et \(x = 1\).
  • Décroissance rapide : \(\varphi(x) \to 0\) quand \(|x| \to +\infty\), plus vite que toute puissance de \(\displaystyle\frac{1}{|x|}\).

C. Courbe de Gauss — influence des paramètres

La représentation graphique de la densité \(f\) est la célèbre courbe en cloche, ou courbe de Gauss.

Tracer trois courbes de densité gaussienne sur un même repère. Axe x de -6 à 10, axe y de 0 à 0.5. Courbe 1 : N(0, 1) en

Influence de \(\mu\) (position) : modifier \(\mu\) translate la courbe horizontalement sans changer sa forme. La courbe de \(\mathcal{N}(3, 1)\) est identique à celle de \(\mathcal{N}(0, 1)\), simplement décalée de 3 vers la droite.

Influence de \(\sigma\) (dispersion) : augmenter \(\sigma\) aplatit la courbe et l’étale. La hauteur du pic vaut \(\displaystyle\frac{1}{\sigma\sqrt{2\pi}}\) : elle diminue quand \(\sigma\) croît. Mais l’aire sous la courbe reste toujours égale à 1.

Les points d’inflexion de la courbe de \(\mathcal{N}(\mu, \sigma^2)\) sont situés en \(x = \mu – \sigma\) et \(x = \mu + \sigma\). C’est un moyen visuel rapide de lire \(\sigma\) sur un graphique.


II. Propriétés fondamentales et démonstrations

Cette section regroupe les propriétés essentielles de la loi normale et les démonstrations exigibles en classe préparatoire, marquées ⋆.

A. Intégrale de Gauss ⋆

Le premier résultat fondamental est le calcul de l’intégrale de Gauss, qui assure que la fonction \(\varphi\) est bien une densité de probabilité. Ce résultat fait appel à un changement de variable en coordonnées polaires.

Théorème — Intégrale de Gauss

\(\displaystyle\int_{-\infty}^{+\infty} \mathrm{e}^{-t^2/2}\,\mathrm{d}t = \sqrt{2\pi}\)

Démonstration ⋆. Posons \(I = \displaystyle\int_{-\infty}^{+\infty} \mathrm{e}^{-t^2/2}\,\mathrm{d}t\). On a \(I\) > \(0\) car l’intégrande est strictement positive.

Calculons \(I^2\) par le théorème de Fubini :

\(I^2 = \left(\displaystyle\int_{-\infty}^{+\infty} \mathrm{e}^{-x^2/2}\,\mathrm{d}x\right)\left(\displaystyle\int_{-\infty}^{+\infty} \mathrm{e}^{-y^2/2}\,\mathrm{d}y\right) = \displaystyle\int\!\!\!\int_{\mathbb{R}^2} \mathrm{e}^{-(x^2+y^2)/2}\,\mathrm{d}x\,\mathrm{d}y\)

On effectue le passage en coordonnées polaires : \(x = r\cos\theta\), \(y = r\sin\theta\), avec le jacobien \(r\,\mathrm{d}r\,\mathrm{d}\theta\) :

\(I^2 = \displaystyle\int_0^{2\pi}\!\displaystyle\int_0^{+\infty} r\,\mathrm{e}^{-r^2/2}\,\mathrm{d}r\,\mathrm{d}\theta\)

L’intégrale radiale se calcule directement :

\(\displaystyle\int_0^{+\infty} r\,\mathrm{e}^{-r^2/2}\,\mathrm{d}r = \left[-\mathrm{e}^{-r^2/2}\right]_0^{+\infty} = 0 – (-1) = 1\)

D’où \(I^2 = \displaystyle\int_0^{2\pi} 1\,\mathrm{d}\theta = 2\pi\), et comme \(I\) > \(0\), on conclut \(I = \sqrt{2\pi}\). ∎

Conséquence immédiate. En divisant par \(\sqrt{2\pi}\), on obtient \(\displaystyle\int_{-\infty}^{+\infty} \varphi(t)\,\mathrm{d}t = 1\), ce qui confirme que \(\varphi\) est une densité de probabilité.

B. Espérance et variance ⋆

On démontre que les paramètres \(\mu\) et \(\sigma^2\) de la notation \(\mathcal{N}(\mu, \sigma^2)\) coïncident bien avec l’espérance et la variance.

Propriété — Espérance et variance de \(\mathcal{N}(\mu, \sigma^2)\)

Si \(X \sim \mathcal{N}(\mu, \sigma^2)\), alors :

\(\mathbb{E}(X) = \mu \quad \text{et} \quad \mathrm{V}(X) = \sigma^2\)

Démonstration de \(\mathbb{E}(X) = \mu\) ⋆. On effectue le changement de variable \(t = \displaystyle\frac{x – \mu}{\sigma}\), soit \(x = \sigma t + \mu\) et \(\mathrm{d}x = \sigma\,\mathrm{d}t\) :

\(\mathbb{E}(X) = \displaystyle\int_{-\infty}^{+\infty} x\,f(x)\,\mathrm{d}x = \displaystyle\int_{-\infty}^{+\infty} (\sigma t + \mu)\,\varphi(t)\,\mathrm{d}t = \sigma\!\displaystyle\int_{-\infty}^{+\infty} t\,\varphi(t)\,\mathrm{d}t + \mu\!\displaystyle\int_{-\infty}^{+\infty} \varphi(t)\,\mathrm{d}t\)

La première intégrale est nulle : \(t \mapsto t\,\varphi(t)\) est une fonction impaire (produit d’une fonction impaire et d’une fonction paire) intégrable sur \(\mathbb{R}\). La seconde intégrale vaut \(1\). D’où \(\mathbb{E}(X) = \mu\). ∎

Démonstration de \(\mathrm{V}(X) = \sigma^2\) ⋆. Par le même changement de variable :

\(\mathrm{V}(X) = \mathbb{E}\!\left[(X – \mu)^2\right] = \displaystyle\int_{-\infty}^{+\infty} (x – \mu)^2 f(x)\,\mathrm{d}x = \sigma^2 \displaystyle\int_{-\infty}^{+\infty} t^2\,\varphi(t)\,\mathrm{d}t\)

On calcule \(J = \displaystyle\int_{-\infty}^{+\infty} t^2\,\varphi(t)\,\mathrm{d}t\) par intégration par parties. Posons \(u(t) = t\) et \(v^{\prime}(t) = t\,\varphi(t)\). Comme \(\varphi^{\prime}(t) = -t\,\varphi(t)\), on a \(v(t) = -\varphi(t)\). Alors :

\(J = \displaystyle\frac{1}{\sqrt{2\pi}}\left(\left[-t\,\mathrm{e}^{-t^2/2}\right]_{-\infty}^{+\infty} + \displaystyle\int_{-\infty}^{+\infty} \mathrm{e}^{-t^2/2}\,\mathrm{d}t\right) = \displaystyle\frac{1}{\sqrt{2\pi}}\left(0 + \sqrt{2\pi}\right) = 1\)

D’où \(\mathrm{V}(X) = \sigma^2 \cdot 1 = \sigma^2\). ∎

C. Symétrie et moments

La symétrie de la densité gaussienne engendre des propriétés remarquables sur les moments.

Propriété — Symétrie

Si \(X \sim \mathcal{N}(\mu, \sigma^2)\), alors \(2\mu – X \sim \mathcal{N}(\mu, \sigma^2)\). Autrement dit, la loi de \(X\) est symétrique par rapport à \(\mu\).

La démonstration est immédiate par calcul de densité (changement de variable \(u = 2\mu – x\)).

Moments de la loi \(\mathcal{N}(0, 1)\). Pour \(Z \sim \mathcal{N}(0, 1)\) :

  • Moments impairs : \(\mathbb{E}(Z^{2k+1}) = 0\) pour tout \(k \in \mathbb{N}\) (par imparité de \(t \mapsto t^{2k+1}\varphi(t)\)).
  • Moments pairs : \(\mathbb{E}(Z^{2k}) = (2k-1)!! = 1 \cdot 3 \cdot 5 \cdots (2k-1)\).

En particulier : \(\mathbb{E}(Z^2) = 1\), \(\mathbb{E}(Z^4) = 3\), \(\mathbb{E}(Z^6) = 15\). Le moment d’ordre 4 (\(\mathbb{E}(Z^4) = 3\)) est lié au kurtosis : la loi normale sert de référence pour mesurer l’aplatissement de toute autre distribution.

D. Stabilité par combinaison linéaire ⋆

La famille des lois normales possède une propriété de stabilité algébrique remarquable, essentielle en pratique.

Théorème — Transformation affine ⋆

Si \(X \sim \mathcal{N}(\mu, \sigma^2)\), \(a \in \mathbb{R}^*\) et \(b \in \mathbb{R}\), alors :

\(aX + b \sim \mathcal{N}(a\mu + b,\; a^2\sigma^2)\)

La preuve par changement de variable dans la densité est directe. En particulier, pour \(a = \displaystyle\frac{1}{\sigma}\) et \(b = -\displaystyle\frac{\mu}{\sigma}\), on obtient le résultat fondamental suivant.

Centrer-réduire — le réflexe fondamental. Si \(X \sim \mathcal{N}(\mu, \sigma^2)\), alors :

\(Z = \displaystyle\frac{X – \mu}{\sigma} \sim \mathcal{N}(0, 1)\)

C’est la technique qui ramène tout calcul de probabilité sur une gaussienne quelconque à un calcul sur la loi \(\mathcal{N}(0, 1)\). Retiens-la comme un automatisme.

Théorème — Stabilité par somme de gaussiennes indépendantes ⋆

Soient \(X_1 \sim \mathcal{N}(\mu_1, \sigma_1^2)\) et \(X_2 \sim \mathcal{N}(\mu_2, \sigma_2^2)\) deux variables aléatoires indépendantes. Alors pour tous \(a_1, a_2 \in \mathbb{R}\) :

\(a_1 X_1 + a_2 X_2 \sim \mathcal{N}\!\left(a_1\mu_1 + a_2\mu_2,\; a_1^2\sigma_1^2 + a_2^2\sigma_2^2\right)\)

Plus généralement, si \(X_1, \ldots, X_n\) sont indépendantes avec \(X_i \sim \mathcal{N}(\mu_i, \sigma_i^2)\), alors \(\displaystyle\sum_{i=1}^n a_i X_i \sim \mathcal{N}\!\left(\displaystyle\sum_{i=1}^n a_i\mu_i,\; \displaystyle\sum_{i=1}^n a_i^2\sigma_i^2\right)\).

La démonstration la plus élégante utilise la fonction caractéristique, détaillée en section V. L’idée clé : la FC d’une somme de v.a. indépendantes est le produit des FC, et le produit de deux FC gaussiennes est encore une FC gaussienne.

Piège classique : la stabilité par somme exige l’indépendance des variables. Si \(X\) et \(Y\) sont gaussiennes mais non indépendantes, \(X + Y\) n’est pas nécessairement gaussienne (sauf si le vecteur \((X, Y)\) suit une loi normale bivariée).

Voici un tableau récapitulatif des propriétés de la loi normale :

Propriétés de la loi normale N(μ, σ²)
Propriété Formule
Densité \(f(x) = \displaystyle\frac{1}{\sigma\sqrt{2\pi}}\exp\!\left(-\displaystyle\frac{(x-\mu)^2}{2\sigma^2}\right)\)
Espérance \(\mathbb{E}(X) = \mu\)
Variance \(\mathrm{V}(X) = \sigma^2\)
Écart-type \(\sigma(X) = \sigma\)
Centrer-réduire \(\displaystyle\frac{X – \mu}{\sigma} \sim \mathcal{N}(0,1)\)
Symétrie \(2\mu – X \sim \mathcal{N}(\mu, \sigma^2)\)
Transformation affine \(aX + b \sim \mathcal{N}(a\mu + b,\; a^2\sigma^2)\)
Stabilité par somme \(X_1 + X_2 \sim \mathcal{N}(\mu_1 + \mu_2,\; \sigma_1^2 + \sigma_2^2)\) (si indép.)
Fonction caractéristique \(\varphi_X(t) = \exp\!\left(i\mu t – \displaystyle\frac{\sigma^2 t^2}{2}\right)\)

III. Fonction de répartition et calcul de probabilités

Le calcul de probabilités pour une variable gaussienne passe systématiquement par la fonction de répartition de la loi centrée réduite.

A. La fonction \(\Phi\)

Définition — Fonction de répartition de \(\mathcal{N}(0,1)\)

On note \(\Phi\) la fonction de répartition de la loi \(\mathcal{N}(0,1)\) :

\(\Phi(x) = \mathbb{P}(Z \leq x) = \displaystyle\int_{-\infty}^{x} \varphi(t)\,\mathrm{d}t = \displaystyle\frac{1}{\sqrt{2\pi}}\displaystyle\int_{-\infty}^{x} \mathrm{e}^{-t^2/2}\,\mathrm{d}t\)

La fonction \(\Phi\) n’admet pas d’expression en forme close à l’aide des fonctions usuelles. En pratique, ses valeurs sont lues dans la table de la loi normale centrée réduite.

Propriétés fondamentales de \(\Phi\) :

  • Relation de symétrie : \(\Phi(-x) = 1 – \Phi(x)\) pour tout \(x \in \mathbb{R}\) (conséquence de la parité de \(\varphi\)).
  • Valeur en zéro : \(\Phi(0) = \displaystyle\frac{1}{2}\).
  • Limites : \(\displaystyle\lim_{x \to -\infty} \Phi(x) = 0\) et \(\displaystyle\lim_{x \to +\infty} \Phi(x) = 1\).
  • Dérivée : \(\Phi^{\prime}(x) = \varphi(x)\) > \(0\) — la fonction \(\Phi\) est strictement croissante sur \(\mathbb{R}\).
Tracer la fonction de répartition Φ(x) de N(0,1). Axe x de -4 à 4, axe y de 0 à 1. Courbe en bleu #1f4acc, trait plein é

B. Centrer et réduire — méthode en 3 étapes

Tout calcul de probabilité sur \(X \sim \mathcal{N}(\mu, \sigma^2)\) se ramène à \(\Phi\) par la procédure suivante.

Méthode — Calculer \(\mathbb{P}(a \leq X \leq b)\)

  1. Centrer et réduire : poser \(Z = \displaystyle\frac{X – \mu}{\sigma}\), puis réécrire l’événement en fonction de \(Z\).
  2. Exploiter la symétrie : utiliser \(\Phi(-x) = 1 – \Phi(x)\) pour ne lire que des valeurs positives dans la table.
  3. Lire dans la table : appliquer la formule obtenue.

Formule générale : \(\mathbb{P}(a \leq X \leq b) = \Phi\!\left(\displaystyle\frac{b – \mu}{\sigma}\right) – \Phi\!\left(\displaystyle\frac{a – \mu}{\sigma}\right)\)

Exemple. Soit \(X \sim \mathcal{N}(5, 9)\) (donc \(\sigma = 3\)). Calculons \(\mathbb{P}(2 \leq X \leq 11)\).

Étape 1 : \(Z = \displaystyle\frac{X – 5}{3}\). On a \(\mathbb{P}(2 \leq X \leq 11) = \mathbb{P}\!\left(\displaystyle\frac{2-5}{3} \leq Z \leq \displaystyle\frac{11-5}{3}\right) = \mathbb{P}(-1 \leq Z \leq 2)\).

Étape 2 : \(\mathbb{P}(-1 \leq Z \leq 2) = \Phi(2) – \Phi(-1) = \Phi(2) – (1 – \Phi(1))\).

Étape 3 : la table donne \(\Phi(1) \approx 0{,}8413\) et \(\Phi(2) \approx 0{,}9772\). Donc \(\mathbb{P}(2 \leq X \leq 11) \approx 0{,}9772 – 0{,}1587 = 0{,}8185\).

C. Quantiles et règle 68-95-99,7

On appelle quantile d’ordre \(\alpha\) de la loi \(\mathcal{N}(0,1)\) la valeur \(z_\alpha\) telle que \(\mathbb{P}(Z \leq z_\alpha) = \alpha\), soit \(z_\alpha = \Phi^{-1}(\alpha)\). Voici les quantiles les plus utilisés :

Quantiles classiques de N(0, 1)
Niveau de confiance \(\alpha\) (risque bilatéral) \(z_{1-\alpha/2}\)
90 % 0,10 1,645
95 % 0,05 1,960
99 % 0,01 2,576

Ces quantiles conduisent à la règle 68-95-99,7, qui donne la probabilité de se trouver à \(k\) écarts-types de la moyenne :

Règle empirique (68-95-99,7)

Pour \(X \sim \mathcal{N}(\mu, \sigma^2)\) :

  • \(\mathbb{P}(\mu – \sigma \leq X \leq \mu + \sigma) \approx 0{,}6827\) (68,3 %)
  • \(\mathbb{P}(\mu – 2\sigma \leq X \leq \mu + 2\sigma) \approx 0{,}9545\) (95,4 %)
  • \(\mathbb{P}(\mu – 3\sigma \leq X \leq \mu + 3\sigma) \approx 0{,}9973\) (99,7 %)

Plus précisément, pour un intervalle de confiance bilatéral à 95 % :

\(\mathbb{P}\!\left(\mu – 1{,}96\,\sigma \leq X \leq \mu + 1{,}96\,\sigma\right) = 0{,}95\)

C’est le fondement des intervalles de confiance en statistique. On en verra une application dans les exercices.

Logo-excellence-maths
Progresse en maths avec un prof diplômé de Polytechnique
Cours particuliers sur-mesure en prépa scientifique. Méthode rigoureuse, exigence bienveillante, résultats visibles dès le premier mois.

IV. Théorème central limite et approximation normale

La raison profonde de l’omniprésence de la loi normale réside dans les théorèmes limites : toute somme de variables aléatoires indépendantes et identiquement distribuées, convenablement renormalisée, converge vers la loi normale.

A. Théorème de Moivre-Laplace

Le cas particulier le plus classique concerne l’approximation de la loi binomiale par la loi normale.

Théorème de Moivre-Laplace

Soit \(S_n \sim \mathcal{B}(n, p)\) avec \(p \in\, ]0 \,; 1[\,\). Alors :

\(\displaystyle\frac{S_n – np}{\sqrt{np(1-p)}} \longrightarrow[n \to +\infty]{\mathcal{L}} Z \sim \mathcal{N}(0, 1)\)

Autrement dit, pour \(n\) assez grand, \(S_n \approx \mathcal{N}\!\left(np,\; np(1-p)\right)\).

Conditions d’utilisation. En pratique, on applique l’approximation normale de la loi binomiale lorsque \(np \geq 5\) et \(n(1-p) \geq 5\). Pour \(n\) grand et \(p\) petit (cas \(np\) < \(5\)), on utilise plutôt l’approximation par la loi de Poisson.

Exemple. Un QCM comporte 200 questions à 4 choix. Un candidat répond au hasard. Soit \(X\) le nombre de bonnes réponses : \(X \sim \mathcal{B}(200 \,; 0{,}25)\). On a \(np = 50\) et \(n(1-p) = 150\), tous deux \(\geq 5\).

Approximation : \(X \approx \mathcal{N}(50 \,;\, 37{,}5)\) (car \(\sigma^2 = np(1-p) = 37{,}5\)).

\(\mathbb{P}(X \geq 60) \approx 1 – \Phi\!\left(\displaystyle\frac{60 – 50}{\sqrt{37{,}5}}\right) \approx 1 – \Phi(1{,}63) \approx 1 – 0{,}9485 = 0{,}0515\)

B. Théorème central limite — énoncé et idée de démonstration

Le théorème de Moivre-Laplace est un cas particulier du résultat suivant, qui s’applique à n’importe quelle loi ayant une variance finie.

Théorème central limite (Lindeberg-Lévy)

Soit \((X_n)_{n \geq 1}\) une suite de variables aléatoires réelles i.i.d. d’espérance \(\mu = \mathbb{E}(X_1)\) et de variance \(\sigma^2 = \mathrm{V}(X_1)\) > \(0\). On pose \(S_n = X_1 + \cdots + X_n\). Alors :

\(\displaystyle\frac{S_n – n\mu}{\sigma\sqrt{n}} \longrightarrow[n \to +\infty]{\mathcal{L}} \mathcal{N}(0, 1)\)

Ce théorème explique pourquoi la loi normale apparaît partout en sciences : chaque fois qu’un phénomène résulte de la superposition d’un grand nombre de contributions indépendantes de même loi (erreurs de mesure, bruit thermique, taille dans une population…), la distribution globale est approximativement gaussienne.

Idée de démonstration ⋆. Notons \(Y_i = \displaystyle\frac{X_i – \mu}{\sigma}\) les variables centrées réduites, et \(Z_n = \displaystyle\frac{S_n – n\mu}{\sigma\sqrt{n}} = \displaystyle\frac{1}{\sqrt{n}}\displaystyle\sum_{i=1}^n Y_i\). La fonction caractéristique de \(Z_n\) est :

\(\varphi_{Z_n}(t) = \left[\varphi_{Y_1}\!\left(\displaystyle\frac{t}{\sqrt{n}}\right)\right]^n\)

On développe \(\varphi_{Y_1}\) au voisinage de 0 grâce à \(\mathbb{E}(Y_1) = 0\) et \(\mathbb{E}(Y_1^2) = 1\) :

\(\varphi_{Y_1}(u) = 1 – \displaystyle\frac{u^2}{2} + o(u^2) \quad \text{quand } u \to 0\)

D’où \(\varphi_{Z_n}(t) = \left(1 – \displaystyle\frac{t^2}{2n} + o\!\left(\displaystyle\frac{1}{n}\right)\right)^n \longrightarrow \mathrm{e}^{-t^2/2}\) quand \(n \to +\infty\).

On reconnaît la FC de \(\mathcal{N}(0,1)\). Le théorème de Lévy (continuité de la FC) permet de conclure la convergence en loi. ∎

Illustration du TCL. Quatre sous-graphiques en grille 2×2. (1) Histogramme de S_n/n pour n=1 (loi uniforme sur [0,1]) en

C. Correction de continuité

La loi binomiale est une loi discrète, tandis que la loi normale est continue. L’approximation normale introduit donc une erreur systématique sur les probabilités ponctuelles.

Correction de continuité. Pour \(S_n \sim \mathcal{B}(n, p)\) et \(k \in \mathbb{N}\) :

\(\mathbb{P}(S_n = k) \approx \Phi\!\left(\displaystyle\frac{k + 0{,}5 – np}{\sqrt{np(1-p)}}\right) – \Phi\!\left(\displaystyle\frac{k – 0{,}5 – np}{\sqrt{np(1-p)}}\right)\)

Plus généralement, pour \(a, b \in \mathbb{Z}\) : \(\mathbb{P}(a \leq S_n \leq b) \approx \Phi\!\left(\displaystyle\frac{b + 0{,}5 – np}{\sqrt{np(1-p)}}\right) – \Phi\!\left(\displaystyle\frac{a – 0{,}5 – np}{\sqrt{np(1-p)}}\right)\)

Piège : oublier la correction de continuité est une erreur fréquente aux concours. Sans elle, l’approximation de \(\mathbb{P}(S_n \leq k)\) est systématiquement biaisée. La correction de \(\pm 0{,}5\) améliore significativement la précision pour les valeurs de \(n\) modérées (typiquement \(n\) < \(100\)).


V. Fonction caractéristique et résultats avancés 🔴

Cette section concerne principalement les filières MP/MP* et PC/PC*. La fonction caractéristique est l’outil qui donne les preuves les plus élégantes des propriétés de la loi normale.

Définition — Fonction caractéristique

Pour toute variable aléatoire réelle \(X\), la fonction caractéristique de \(X\) est la fonction \(\varphi_X : \mathbb{R} \to \mathbb{C}\) définie par :

\(\varphi_X(t) = \mathbb{E}\!\left(\mathrm{e}^{itX}\right) = \displaystyle\int_{-\infty}^{+\infty} \mathrm{e}^{itx}\,f_X(x)\,\mathrm{d}x\)

Calcul de la FC de \(\mathcal{N}(0,1)\) ⋆. Pour \(Z \sim \mathcal{N}(0,1)\) :

\(\varphi_Z(t) = \displaystyle\frac{1}{\sqrt{2\pi}}\displaystyle\int_{-\infty}^{+\infty} \mathrm{e}^{itx}\,\mathrm{e}^{-x^2/2}\,\mathrm{d}x = \displaystyle\frac{1}{\sqrt{2\pi}}\displaystyle\int_{-\infty}^{+\infty} \mathrm{e}^{itx – x^2/2}\,\mathrm{d}x\)

On complète le carré dans l’exposant :

\(itx – \displaystyle\frac{x^2}{2} = -\displaystyle\frac{1}{2}(x – it)^2 – \displaystyle\frac{t^2}{2}\)

D’où \(\varphi_Z(t) = \mathrm{e}^{-t^2/2} \cdot \displaystyle\frac{1}{\sqrt{2\pi}}\displaystyle\int_{-\infty}^{+\infty} \mathrm{e}^{-(x – it)^2/2}\,\mathrm{d}x\). L’intégrale se calcule par translation du contour dans le plan complexe (justifiée par le théorème de Cauchy ou par un argument de domination) et vaut \(\sqrt{2\pi}\). On obtient :

Fonction caractéristique de \(\mathcal{N}(\mu, \sigma^2)\)

\(\varphi_Z(t) = \mathrm{e}^{-t^2/2}\) pour \(Z \sim \mathcal{N}(0, 1)\)

Plus généralement, si \(X \sim \mathcal{N}(\mu, \sigma^2)\) (car \(X = \sigma Z + \mu\)) :

\(\varphi_X(t) = \exp\!\left(i\mu t – \displaystyle\frac{\sigma^2 t^2}{2}\right)\)

Application : preuve de la stabilité par somme. Soient \(X_1 \sim \mathcal{N}(\mu_1, \sigma_1^2)\) et \(X_2 \sim \mathcal{N}(\mu_2, \sigma_2^2)\) indépendantes. Par indépendance :

\(\varphi_{X_1 + X_2}(t) = \varphi_{X_1}(t) \cdot \varphi_{X_2}(t) = \exp\!\left(i(\mu_1 + \mu_2)t – \displaystyle\frac{(\sigma_1^2 + \sigma_2^2)t^2}{2}\right)\)

On reconnaît la FC de \(\mathcal{N}(\mu_1 + \mu_2,\; \sigma_1^2 + \sigma_2^2)\). L’injectivité de la FC permet de conclure. ∎

Application : preuve du TCL. La démonstration esquissée en section IV.B repose sur le fait que la FC de \(Z_n\) converge ponctuellement vers \(\mathrm{e}^{-t^2/2}\), qui est la FC de \(\mathcal{N}(0, 1)\).

Lien avec la fonction génératrice des moments. Pour \(X \sim \mathcal{N}(\mu, \sigma^2)\), la fonction génératrice des moments \(M_X(t) = \mathbb{E}(\mathrm{e}^{tX})\) existe pour tout \(t \in \mathbb{R}\) et vaut :

\(M_X(t) = \exp\!\left(\mu t + \displaystyle\frac{\sigma^2 t^2}{2}\right)\)

VI. Exercices corrigés

Voici 8 exercices classés par difficulté croissante, de l’application directe (★) aux problèmes de concours (★★★★★). Chaque correction détaille la rédaction attendue.

Exercice 1 — ★ (I)

Soit \(X \sim \mathcal{N}(3, 4)\) (donc \(\sigma = 2\)).

  1. Calculer \(\mathbb{P}(X \leq 5)\).
  2. Calculer \(\mathbb{P}(1 \leq X \leq 7)\).
Voir la correction

1. On centre et réduit : \(Z = \displaystyle\frac{X – 3}{2} \sim \mathcal{N}(0, 1)\).

\(\mathbb{P}(X \leq 5) = \mathbb{P}\!\left(Z \leq \displaystyle\frac{5 – 3}{2}\right) = \mathbb{P}(Z \leq 1) = \Phi(1) \approx 0{,}8413\)

2. \(\mathbb{P}(1 \leq X \leq 7) = \mathbb{P}\!\left(\displaystyle\frac{1-3}{2} \leq Z \leq \displaystyle\frac{7-3}{2}\right) = \mathbb{P}(-1 \leq Z \leq 2)\)

\(= \Phi(2) – \Phi(-1) = \Phi(2) – \bigl(1 – \Phi(1)\bigr) \approx 0{,}9772 – 0{,}1587 = 0{,}8185\)

Exercice 2 — ★★

Soit \(X \sim \mathcal{N}(10, 25)\). Déterminer \(a\) > \(0\) tel que \(\mathbb{P}(|X – 10| \leq a) = 0{,}95\).

Voir la correction

On a \(\sigma = 5\) et \(Z = \displaystyle\frac{X – 10}{5} \sim \mathcal{N}(0, 1)\).

\(\mathbb{P}(|X – 10| \leq a) = \mathbb{P}\!\left(|Z| \leq \displaystyle\frac{a}{5}\right) = 2\Phi\!\left(\displaystyle\frac{a}{5}\right) – 1 = 0{,}95\)

D’où \(\Phi\!\left(\displaystyle\frac{a}{5}\right) = 0{,}975\), ce qui donne \(\displaystyle\frac{a}{5} = \Phi^{-1}(0{,}975) = 1{,}96\).

Conclusion : \(a = 9{,}80\).


Exercice 3 — ★★ (I)

Soient \(X \sim \mathcal{N}(2, 1)\) et \(Y \sim \mathcal{N}(-1, 4)\) deux variables indépendantes. Déterminer la loi de \(W = 3X – 2Y + 5\).

Voir la correction

Par stabilité de la loi normale par combinaison linéaire (les variables étant indépendantes) :

\(\mathbb{E}(W) = 3 \times 2 + (-2) \times (-1) + 5 = 6 + 2 + 5 = 13\) \(\mathrm{V}(W) = 3^2 \times 1 + (-2)^2 \times 4 = 9 + 16 = 25\)

Conclusion : \(W \sim \mathcal{N}(13, 25)\).


Exercice 4 — ★★★

On lance 400 fois une pièce équilibrée. Soit \(X\) le nombre de « pile » obtenus. En utilisant l’approximation normale avec correction de continuité, calculer \(\mathbb{P}(190 \leq X \leq 210)\).

Voir la correction

\(X \sim \mathcal{B}(400 \,; 0{,}5)\). On a \(\mathbb{E}(X) = 200\) et \(\mathrm{V}(X) = 100\), donc \(\sigma = 10\).

Vérification des conditions : \(np = 200 \geq 5\) et \(n(1-p) = 200 \geq 5\). L’approximation normale est valide.

Avec correction de continuité :

\(\mathbb{P}(190 \leq X \leq 210) \approx \Phi\!\left(\displaystyle\frac{210{,}5 – 200}{10}\right) – \Phi\!\left(\displaystyle\frac{189{,}5 – 200}{10}\right) = \Phi(1{,}05) – \Phi(-1{,}05)\) \(= 2\Phi(1{,}05) – 1 \approx 2 \times 0{,}8531 – 1 = 0{,}7062\)

Sans correction : on obtiendrait \(\mathbb{P}(-1 \leq Z \leq 1) \approx 0{,}6827\). La correction de continuité fournit ici une approximation plus précise.


Exercice 5 — ★★★

Soit \(Z \sim \mathcal{N}(0, 1)\). Calculer \(\mathbb{E}(Z^4)\) par intégration par parties.

Voir la correction \(\mathbb{E}(Z^4) = \displaystyle\frac{1}{\sqrt{2\pi}}\displaystyle\int_{-\infty}^{+\infty} t^4\,\mathrm{e}^{-t^2/2}\,\mathrm{d}t\)

IPP avec \(u(t) = t^3\) et \(v^{\prime}(t) = t\,\mathrm{e}^{-t^2/2}\), d’où \(u^{\prime}(t) = 3t^2\) et \(v(t) = -\mathrm{e}^{-t^2/2}\) :

\(\displaystyle\int_{-\infty}^{+\infty} t^4\,\mathrm{e}^{-t^2/2}\,\mathrm{d}t = \left[-t^3\,\mathrm{e}^{-t^2/2}\right]_{-\infty}^{+\infty} + 3\displaystyle\int_{-\infty}^{+\infty} t^2\,\mathrm{e}^{-t^2/2}\,\mathrm{d}t\)

Le crochet est nul (croissance de l’exponentielle). L’intégrale restante est \(\sqrt{2\pi}\,\mathbb{E}(Z^2) = \sqrt{2\pi}\).

Conclusion : \(\mathbb{E}(Z^4) = \displaystyle\frac{1}{\sqrt{2\pi}} \times 3\sqrt{2\pi} = 3\).

Résultat général : \(\mathbb{E}(Z^{2k}) = (2k-1)!! = 1 \cdot 3 \cdot 5 \cdots (2k-1)\) (démonstration par récurrence avec IPP).


Exercice 6 — ★★★★

Soient \(X_1, \ldots, X_n\) des v.a.r. i.i.d. de loi \(\mathcal{N}(\mu, \sigma^2)\) avec \(\mu\) inconnu et \(\sigma\) connu. On pose \(\overline{X}_n = \displaystyle\frac{1}{n}\displaystyle\sum_{i=1}^n X_i\).

  1. Déterminer la loi de \(\overline{X}_n\).
  2. Montrer que \(\mathbb{P}\!\left(|\overline{X}_n – \mu| \leq \displaystyle\frac{1{,}96\,\sigma}{\sqrt{n}}\right) = 0{,}95\).
  3. Application : \(n = 100\), \(\overline{X}_{100} = 10{,}3\), \(\sigma = 0{,}5\). Donner un intervalle de confiance à 95 % pour \(\mu\).
Voir la correction

1. Par stabilité, \(\overline{X}_n = \displaystyle\frac{1}{n}\displaystyle\sum_{i=1}^n X_i\) est une combinaison linéaire de gaussiennes indépendantes :

\(\mathbb{E}(\overline{X}_n) = \mu, \quad \mathrm{V}(\overline{X}_n) = \displaystyle\frac{\sigma^2}{n}\)

Donc \(\overline{X}_n \sim \mathcal{N}\!\left(\mu, \displaystyle\frac{\sigma^2}{n}\right)\).

2. On centre et réduit : \(Z_n = \displaystyle\frac{\overline{X}_n – \mu}{\sigma/\sqrt{n}} \sim \mathcal{N}(0, 1)\).

\(\mathbb{P}\!\left(|\overline{X}_n – \mu| \leq \displaystyle\frac{1{,}96\,\sigma}{\sqrt{n}}\right) = \mathbb{P}(|Z_n| \leq 1{,}96) = 2\Phi(1{,}96) – 1 = 0{,}95\) ∎

3. L’intervalle de confiance à 95 % pour \(\mu\) est :

\(\left[\overline{X}_n – \displaystyle\frac{1{,}96\,\sigma}{\sqrt{n}} \;;\; \overline{X}_n + \displaystyle\frac{1{,}96\,\sigma}{\sqrt{n}}\right] = \left[10{,}3 – \displaystyle\frac{1{,}96 \times 0{,}5}{10} \;;\; 10{,}3 + \displaystyle\frac{1{,}96 \times 0{,}5}{10}\right] = [10{,}202 \;;\; 10{,}398]\)

Exercice 7 — ★★★★ (Encadrement de Mill)

Soit \(Z \sim \mathcal{N}(0, 1)\). Montrer que pour tout \(a\) > \(0\) :

\(\left(\displaystyle\frac{1}{a} – \displaystyle\frac{1}{a^3}\right)\varphi(a) \leq \mathbb{P}(Z \geq a) \leq \displaystyle\frac{1}{a}\,\varphi(a)\)
Voir la correction

Majoration. Pour \(t \geq a\) > \(0\), on a \(1 \leq \displaystyle\frac{t}{a}\), d’où \(\varphi(t) \leq \displaystyle\frac{t}{a}\,\varphi(t)\). En intégrant :

\(\mathbb{P}(Z \geq a) = \displaystyle\int_a^{+\infty} \varphi(t)\,\mathrm{d}t \leq \displaystyle\frac{1}{a}\displaystyle\int_a^{+\infty} t\,\varphi(t)\,\mathrm{d}t\)

Or \(\displaystyle\int_a^{+\infty} t\,\varphi(t)\,\mathrm{d}t = \left[-\varphi(t)\right]_a^{+\infty} = \varphi(a)\) (car \(\varphi^{\prime}(t) = -t\,\varphi(t)\)).

D’où \(\mathbb{P}(Z \geq a) \leq \displaystyle\frac{\varphi(a)}{a}\). ✓

Minoration. On intègre par parties \(\displaystyle\int_a^{+\infty} \varphi(t)\,\mathrm{d}t\) avec \(u(t) = \displaystyle\frac{1}{t}\) et \(v^{\prime}(t) = t\,\varphi(t)\), soit \(v(t) = -\varphi(t)\) :

\(\mathbb{P}(Z \geq a) = \left[-\displaystyle\frac{\varphi(t)}{t}\right]_a^{+\infty} – \displaystyle\int_a^{+\infty} \displaystyle\frac{\varphi(t)}{t^2}\,\mathrm{d}t = \displaystyle\frac{\varphi(a)}{a} – \displaystyle\int_a^{+\infty} \displaystyle\frac{\varphi(t)}{t^2}\,\mathrm{d}t\)

On majore le reste en réutilisant la même idée : \(\displaystyle\int_a^{+\infty} \displaystyle\frac{\varphi(t)}{t^2}\,\mathrm{d}t = \displaystyle\int_a^{+\infty} \displaystyle\frac{1}{t^3}\cdot t\,\varphi(t)\,\mathrm{d}t \leq \displaystyle\frac{1}{a^3}\displaystyle\int_a^{+\infty} t\,\varphi(t)\,\mathrm{d}t = \displaystyle\frac{\varphi(a)}{a^3}\)

D’où \(\mathbb{P}(Z \geq a) \geq \displaystyle\frac{\varphi(a)}{a} – \displaystyle\frac{\varphi(a)}{a^3} = \left(\displaystyle\frac{1}{a} – \displaystyle\frac{1}{a^3}\right)\varphi(a)\). ✓ ∎

Intérêt de ce résultat : l’encadrement de Mill donne un équivalent de la queue de la loi normale : \(\mathbb{P}(Z \geq a) \sim \displaystyle\frac{\varphi(a)}{a}\) quand \(a \to +\infty\). C’est un outil classique aux concours pour majorer des probabilités de grands écarts.


Exercice 8 — ★★★★★ (Type concours)

Soit \((X_n)_{n \geq 1}\) une suite de v.a.r. i.i.d. de loi uniforme sur \([0 \,; 1]\). On pose \(S_n = X_1 + \cdots + X_n\) et \(Y_n = \displaystyle\frac{S_n – n/2}{\sqrt{n/12}}\).

  1. Rappeler l’espérance et la variance de \(X_1\).
  2. Calculer la fonction caractéristique de \(X_1\), puis celle de \(Y_n\).
  3. Montrer que \(\varphi_{Y_n}(t) \to \mathrm{e}^{-t^2/2}\) quand \(n \to +\infty\) et conclure.
  4. En déduire un équivalent de \(\mathbb{P}\!\left(S_n \leq \displaystyle\frac{n}{2}\right)\) quand \(n \to +\infty\).
Voir la correction

1. \(\mathbb{E}(X_1) = \displaystyle\frac{1}{2}\) et \(\mathrm{V}(X_1) = \displaystyle\frac{1}{12}\).

2. \(\varphi_{X_1}(t) = \mathbb{E}(\mathrm{e}^{itX_1}) = \displaystyle\int_0^1 \mathrm{e}^{itx}\,\mathrm{d}x = \displaystyle\frac{\mathrm{e}^{it} – 1}{it}\) pour \(t \neq 0\), et \(\varphi_{X_1}(0) = 1\).

Comme \(Y_n = \displaystyle\frac{S_n – n/2}{\sqrt{n/12}} = \sqrt{12/n} \cdot S_n – \sqrt{3n}\) n’est pas une simple somme, on procède par étapes. Posons \(U_i = X_i – \displaystyle\frac{1}{2}\), de sorte que \(Y_n = \displaystyle\frac{1}{\sqrt{n/12}} \displaystyle\sum_{i=1}^n U_i\). La FC de \(U_i\) est \(\varphi_{U_i}(t) = \mathrm{e}^{-it/2}\,\varphi_{X_1}(t)\), et par indépendance :

\(\varphi_{Y_n}(t) = \left[\varphi_{U_1}\!\left(\displaystyle\frac{t}{\sqrt{n/12}}\right)\right]^n\)

3. On effectue un DL au voisinage de 0. On a \(\varphi_{U_1}(u) = 1 – \displaystyle\frac{u^2}{2}\mathrm{V}(U_1) + o(u^2) = 1 – \displaystyle\frac{u^2}{24} + o(u^2)\).

En substituant \(u = \displaystyle\frac{t}{\sqrt{n/12}} = t\sqrt{\displaystyle\frac{12}{n}}\) :

\(\varphi_{Y_n}(t) = \left(1 – \displaystyle\frac{12t^2}{24n} + o\!\left(\displaystyle\frac{1}{n}\right)\right)^n = \left(1 – \displaystyle\frac{t^2}{2n} + o\!\left(\displaystyle\frac{1}{n}\right)\right)^n \longrightarrow \mathrm{e}^{-t^2/2}\)

Par le théorème de Lévy, \(Y_n \overset{\mathcal{L}{\longrightarrow}} \mathcal{N}(0, 1)\). C’est une application directe du TCL.

4. \(\mathbb{P}\!\left(S_n \leq \displaystyle\frac{n}{2}\right) = \mathbb{P}(Y_n \leq 0) \longrightarrow \Phi(0) = \displaystyle\frac{1}{2}\).

L’équivalent cherché est donc \(\mathbb{P}\!\left(S_n \leq \displaystyle\frac{n}{2}\right) \longrightarrow[n \to +\infty]{} \displaystyle\frac{1}{2}\).

🎁 EN BONUS

La fiche de synthèse sur la loi normale

Densité, fonction de répartition Φ, quantiles, stabilité, TCL : tout le cours résumé en une page recto-verso prête à imprimer.

📄 Télécharger la fiche PDF

Idéal pour réviser avant un DS ou un concours — accès immédiat.


VII. Erreurs fréquentes et pièges classiques

Voici les erreurs qui reviennent le plus souvent dans les copies de concours sur la loi normale.

Piège 1 — Confondre \(\sigma\) et \(\sigma^2\) dans la notation.

Copie fautive : « \(X \sim \mathcal{N}(3, 4)\) donc \(\sigma = 4\) ».

Diagnostic : dans \(\mathcal{N}(\mu, \sigma^2)\), le second paramètre est la variance \(\sigma^2\), pas l’écart-type.

Correction : \(\sigma^2 = 4\) donc \(\sigma = 2\).

Piège 2 — Écrire \(\mathbb{P}(X = a)\) > \(0\) pour une loi continue.

Copie fautive : « \(\mathbb{P}(X = 5) = \Phi(1)\) ».

Diagnostic : la loi normale est une loi à densité. Pour toute valeur ponctuelle, \(\mathbb{P}(X = a) = 0\). Seules les probabilités sur des intervalles ont un sens non trivial.

Correction : calculer \(\mathbb{P}(X \leq 5)\) ou \(\mathbb{P}(4{,}5 \leq X \leq 5{,}5)\).

Piège 3 — Oublier de centrer-réduire.

Copie fautive : « \(\mathbb{P}(X \leq 5) = \Phi(5)\) » pour \(X \sim \mathcal{N}(3, 4)\).

Diagnostic : la table de la loi normale donne les valeurs de \(\Phi\) pour la loi \(\mathcal{N}(0,1)\), pas pour une gaussienne quelconque.

Correction : \(\mathbb{P}(X \leq 5) = \Phi\!\left(\displaystyle\frac{5 – 3}{2}\right) = \Phi(1)\).

Piège 4 — Appliquer la stabilité par somme sans vérifier l’indépendance.

Copie fautive : « \(X + Y \sim \mathcal{N}(\mu_1 + \mu_2, \sigma_1^2 + \sigma_2^2)\) » sans mentionner l’indépendance.

Diagnostic : la formule de la variance d’une somme fait intervenir la covariance : \(\mathrm{V}(X + Y) = \mathrm{V}(X) + \mathrm{V}(Y) + 2\,\mathrm{Cov}(X, Y)\). L’hypothèse d’indépendance annule la covariance et garantit que la somme est encore gaussienne.

Rédaction correcte : « \(X\) et \(Y\) étant indépendantes, par stabilité de la loi normale par somme de v.a. indépendantes, \(X + Y \sim \mathcal{N}(\mu_1 + \mu_2, \sigma_1^2 + \sigma_2^2)\). »

Piège 5 — Oublier la correction de continuité dans Moivre-Laplace.

Copie fautive : « \(\mathbb{P}(S_n \leq k) \approx \Phi\!\left(\displaystyle\frac{k – np}{\sqrt{np(1-p)}}\right)\) ».

Diagnostic : l’approximation d’une loi discrète par une loi continue nécessite de remplacer \(k\) par \(k + 0{,}5\) dans le membre de gauche de l’inégalité.

Correction : \(\mathbb{P}(S_n \leq k) \approx \Phi\!\left(\displaystyle\frac{k + 0{,}5 – np}{\sqrt{np(1-p)}}\right)\).


VIII. Questions fréquentes

Comment définir la loi normale ?

La loi normale \(\mathcal{N}(\mu, \sigma^2)\) est une loi de probabilité à densité définie sur \(\mathbb{R}\), de densité \(f(x) = \displaystyle\frac{1}{\sigma\sqrt{2\pi}} \exp\!\left(-\displaystyle\frac{(x – \mu)^2}{2\sigma^2}\right)\). Le paramètre \(\mu\) est l’espérance (centre de la distribution) et \(\sigma^2\) est la variance (dispersion). Sa courbe est la célèbre « courbe en cloche » de Gauss.

Comment savoir si une variable aléatoire suit une loi normale ?

En théorie, on vérifie que la densité de la variable correspond à la densité gaussienne, ou on utilise un résultat théorique (combinaison linéaire de gaussiennes, théorème central limite). En pratique (statistiques), on utilise des tests de normalité : test de Shapiro-Wilk, test de Kolmogorov-Smirnov, ou un QQ-plot (graphique quantile-quantile). En prépa, on identifie la loi normale grâce à l’énoncé ou par un théorème du cours.

Que signifie la règle des 68 % pour la loi normale ?

La règle 68-95-99,7 signifie que pour \(X \sim \mathcal{N}(\mu, \sigma^2)\) : environ 68 % des valeurs sont dans l’intervalle \([\mu – \sigma \,; \mu + \sigma]\), 95 % dans \([\mu – 2\sigma \,; \mu + 2\sigma]\), et 99,7 % dans \([\mu – 3\sigma \,; \mu + 3\sigma]\). C’est un moyen rapide d’évaluer la dispersion sans recourir à la table.

Quand utiliser la loi normale plutôt que la loi binomiale ?

La loi binomiale modélise un nombre de succès sur \(n\) épreuves indépendantes. La loi normale est une loi continue utilisée soit directement (modélisation de données continues), soit comme approximation de la loi binomiale quand \(n\) est grand (théorème de Moivre-Laplace, avec les conditions \(np \geq 5\) et \(n(1-p) \geq 5\)). Si \(n\) est petit, on reste sur la loi binomiale exacte.

Quelle est la différence entre loi normale et loi normale centrée réduite ?

La loi normale \(\mathcal{N}(\mu, \sigma^2)\) a pour espérance \(\mu\) et pour variance \(\sigma^2\) quelconques. La loi normale centrée réduite \(\mathcal{N}(0, 1)\) est le cas particulier \(\mu = 0\), \(\sigma = 1\). Toute gaussienne se ramène à la loi centrée réduite par la transformation \(Z = (X – \mu)/\sigma\), ce qui permet d’utiliser une seule table pour tous les calculs.

Pourquoi la loi normale est-elle si importante en mathématiques ?

Le théorème central limite explique son omniprésence : la somme d’un grand nombre de variables aléatoires indépendantes de même loi converge toujours vers une loi normale, quelle que soit la loi de départ (pourvu qu’elle ait une variance finie). C’est pourquoi la loi normale modélise naturellement les erreurs de mesure, les phénomènes biologiques, les fluctuations financières et tout processus résultant de la superposition d’un grand nombre de contributions indépendantes.


IX. Pour aller plus loin

Tu maîtrises maintenant la loi normale, de la définition aux résultats avancés. Pour approfondir, voici les prolongements naturels :

Logo-excellence-maths
Prêt à viser les meilleures notes en prépa ?
Travaille avec un professeur diplômé de Polytechnique qui connaît les attentes des concours. Suivi personnalisé, progression mesurable dès les premières semaines.