Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec le niveau d’exigence attendu en classe préparatoire. Découvrir le professeur
La loi uniforme est le modèle probabiliste de l’équiprobabilité : elle attribue le même poids à chaque valeur possible d’une variable aléatoire. Omniprésente en théorie des probabilités — simulation de lois, méthode de Monte-Carlo, transformations — elle se décline en version discrète et continue. Tu trouveras ici les définitions rigoureuses, les démonstrations exigibles aux concours, les propriétés fondamentales (dont la méthode d’inversion de la fonction de répartition) et 8 exercices corrigés de difficulté croissante.
I. Définition et contexte
La loi uniforme formalise l’idée d’équiprobabilité : chaque valeur admissible est atteinte avec la même probabilité (cas discret) ou la même « densité de probabilité » (cas continu). Elle intervient dès la Terminale pour les lois à densité et devient un outil central en prépa pour la simulation et les transformations de variables aléatoires.
A. Loi uniforme discrète
Définition — Loi uniforme discrète
Soit \(E = \{x_1, x_2, \ldots, x_n\}\) un ensemble fini à \(n\) éléments. Une variable aléatoire \(X\) suit la loi uniforme discrète sur \(E\), notée \(X \sim \mathcal{U}(E)\), si :
\(\displaystyle \forall\, i \in \{1, \ldots, n\}, \quad \mathbb{P}(X = x_i) = \displaystyle\frac{1}{n}\)
Le cas particulier le plus fréquent est \(E = \{1, 2, \ldots, n\}\), noté \(X \sim \mathcal{U}(\{1, \ldots, n\})\).
Exemple : Le lancer d’un dé équilibré à 6 faces modélise \(X \sim \mathcal{U}(\{1, 2, 3, 4, 5, 6\})\). Chaque face a la probabilité \(\displaystyle\frac{1}{6}\) d’apparaître.
B. Loi uniforme continue — densité de probabilité
Définition — Loi uniforme continue
Soient \(a, b \in \mathbb{R}\) avec \(a\) < \(b\). Une variable aléatoire \(X\) suit la loi uniforme continue sur \([a\,;b]\), notée \(X \sim \mathcal{U}([a\,;b])\), si \(X\) admet pour densité de probabilité :
\(\displaystyle f(x) = \begin{cases} \displaystyle\frac{1}{b – a} & \text{si } x \in [a\,;b] \\ 0 & \text{sinon} \end{cases}\)
Vérification : la fonction \(f\) est bien une densité, car \(f \geq 0\) et :
\(\displaystyle \int_{-\infty}^{+\infty} f(x)\,\mathrm{d}x = \int_a^b \displaystyle\frac{1}{b – a}\,\mathrm{d}x = \displaystyle\frac{b – a}{b – a} = 1\)
Formule à retenir : pour tout intervalle \([c\,;d] \subset [a\,;b]\),
\(\displaystyle \mathbb{P}(c \leq X \leq d) = \displaystyle\frac{d – c}{b – a}\)
La probabilité est proportionnelle à la longueur de l’intervalle. C’est la propriété fondamentale de la loi uniforme continue.
Exemple : Soit \(X \sim \mathcal{U}([0\,;1])\). Sa densité est \(f(x) = 1\) sur \([0\,;1]\) et \(0\) ailleurs. On a par exemple \(\mathbb{P}\!\left(\displaystyle\frac{1}{4} \leq X \leq \displaystyle\frac{3}{4}\right) = \displaystyle\frac{3/4 – 1/4}{1 – 0} = \displaystyle\frac{1}{2}\).
C. Fonction de répartition
La fonction de répartition (FdR) de \(X \sim \mathcal{U}([a\,;b])\) se calcule par intégration de la densité.
Fonction de répartition de \(\mathcal{U}([a\,;b])\)
- Si \(x\) < \(a\) : \(F(x) = 0\)
- Si \(a \leq x \leq b\) : \(\displaystyle F(x) = \displaystyle\frac{x – a}{b – a}\)
- Si \(x\) > \(b\) : \(F(x) = 1\)
Démonstration : pour \(x \in [a\,;b]\),
\(\displaystyle F(x) = \int_{-\infty}^{x} f(t)\,\mathrm{d}t = \int_a^x \displaystyle\frac{1}{b – a}\,\mathrm{d}t = \displaystyle\frac{x – a}{b – a}\)
La FdR est continue, affine sur \([a\,;b]\), constante par morceaux en dehors.
Dans le cas discret \(X \sim \mathcal{U}(\{1, \ldots, n\})\), la FdR est une fonction en escalier avec des sauts de hauteur \(\displaystyle\frac{1}{n}\) en chaque entier \(k \in \{1, \ldots, n\}\) :
\(\displaystyle \forall\, k \in \{1, \ldots, n\},\quad F(x) = \displaystyle\frac{k}{n} \text{ pour } k \leq x\) < \(k + 1\)
Les définitions posées, passons aux indicateurs numériques qui résument la loi uniforme : espérance, variance et écart-type.
II. Espérance, variance et écart-type
A. Cas discret — formules et démonstration
Espérance et variance de \(\mathcal{U}(\{1, \ldots, n\})\)
\(\displaystyle E(X) = \displaystyle\frac{n + 1}{2} \qquad\qquad V(X) = \displaystyle\frac{n^2 – 1}{12}\)
Démonstration de \(E(X)\) :
\(\displaystyle E(X) = \sum_{k=1}^{n} k \cdot \displaystyle\frac{1}{n} = \displaystyle\frac{1}{n} \cdot \displaystyle\frac{n(n+1)}{2} = \displaystyle\frac{n+1}{2}\)
Démonstration de \(V(X)\) : on utilise la formule de König-Huygens : \(V(X) = E(X^2) – E(X)^2\).
\(\displaystyle E(X^2) = \displaystyle\frac{1}{n}\sum_{k=1}^{n} k^2 = \displaystyle\frac{1}{n} \cdot \displaystyle\frac{n(n+1)(2n+1)}{6} = \displaystyle\frac{(n+1)(2n+1)}{6}\)
D’où :
\(\displaystyle V(X) = \displaystyle\frac{(n+1)(2n+1)}{6} – \left(\displaystyle\frac{n+1}{2}\right)^{\!2} = (n+1)\left[\displaystyle\frac{2n+1}{6} – \displaystyle\frac{n+1}{4}\right]\)
\(\displaystyle = (n+1) \cdot \displaystyle\frac{4(2n+1) – 6(n+1)}{24} = (n+1) \cdot \displaystyle\frac{2n – 2}{24} = \displaystyle\frac{n^2 – 1}{12}\)
Plus généralement, pour \(X \sim \mathcal{U}(\{x_1, \ldots, x_n\})\) :
\(\displaystyle E(X) = \displaystyle\frac{1}{n}\sum_{i=1}^{n} x_i \qquad\qquad V(X) = \displaystyle\frac{1}{n}\sum_{i=1}^{n} x_i^2 – \left(\displaystyle\frac{1}{n}\sum_{i=1}^{n} x_i\right)^{\!2}\)
B. Cas continu — formules et démonstrations ⋆
Espérance, variance et écart-type de \(\mathcal{U}([a\,;b])\)
\(\displaystyle E(X) = \displaystyle\frac{a + b}{2} \qquad V(X) = \displaystyle\frac{(b – a)^2}{12} \qquad \sigma(X) = \displaystyle\frac{b – a}{2\sqrt{3}}\)
Démonstration de \(E(X)\) ⋆ (exigible aux concours) :
\(\displaystyle E(X) = \int_a^b x \cdot \displaystyle\frac{1}{b – a}\,\mathrm{d}x = \displaystyle\frac{1}{b – a}\left[\displaystyle\frac{x^2}{2}\right]_a^b = \displaystyle\frac{b^2 – a^2}{2(b – a)} = \displaystyle\frac{(b – a)(b + a)}{2(b – a)} = \displaystyle\frac{a + b}{2}\)
Démonstration de \(V(X)\) ⋆ (exigible) : on applique la formule de König-Huygens.
\(\displaystyle E(X^2) = \int_a^b x^2 \cdot \displaystyle\frac{1}{b – a}\,\mathrm{d}x = \displaystyle\frac{1}{b – a}\left[\displaystyle\frac{x^3}{3}\right]_a^b = \displaystyle\frac{b^3 – a^3}{3(b – a)} = \displaystyle\frac{a^2 + ab + b^2}{3}\)
Puis :
\(\displaystyle V(X) = E(X^2) – E(X)^2 = \displaystyle\frac{a^2 + ab + b^2}{3} – \displaystyle\frac{(a + b)^2}{4}\)
\(\displaystyle = \displaystyle\frac{4(a^2 + ab + b^2) – 3(a^2 + 2ab + b^2)}{12} = \displaystyle\frac{a^2 – 2ab + b^2}{12} = \displaystyle\frac{(b – a)^2}{12}\)
Mnémonique : le \(12\) au dénominateur est le même pour la loi discrète \(\left(\displaystyle\frac{n^2-1}{12}\right)\) et la loi continue \(\left(\displaystyle\frac{(b – a)^2}{12}\right)\). Ce n’est pas un hasard — on retrouve \(12\) en posant \(n = b – a\) dans la formule discrète à la limite.
Le tableau suivant résume toutes les formules à connaître.
| Loi discrète \(\mathcal{U}(\{1, \ldots, n\})\) | Loi continue \(\mathcal{U}([a\,;b])\) | |
|---|---|---|
| Support | \(\{1, 2, \ldots, n\}\) | \([a\,;b]\) |
| Loi / Densité | \(\displaystyle\frac{1}{n}\) | \(\displaystyle\frac{1}{b – a}\) sur \([a\,;b]\) |
| Espérance | \(\displaystyle\frac{n + 1}{2}\) | \(\displaystyle\frac{a + b}{2}\) |
| Variance | \(\displaystyle\frac{n^2 – 1}{12}\) | \(\displaystyle\frac{(b – a)^2}{12}\) |
| Écart-type | \(\displaystyle\sqrt{\displaystyle\frac{n^2 – 1}{12}}\) | \(\displaystyle\frac{b – a}{2\sqrt{3}}\) |
C. Moments d’ordre supérieur et fonction génératrice 🔴
Programme CPGE : cette section concerne principalement les élèves du supérieur. Les moments d’ordre supérieur et la fonction génératrice ne sont pas systématiquement exigibles en prépa.
Moment d’ordre \(k\) : pour \(X \sim \mathcal{U}([a\,;b])\) et \(k \in \mathbb{N}^*\),
\(\displaystyle E(X^k) = \int_a^b \displaystyle\frac{x^k}{b – a}\,\mathrm{d}x = \displaystyle\frac{b^{k+1} – a^{k+1}}{(k+1)(b – a)}\)
Cas particulier \(\mathcal{U}([0\,;1])\) :
\(\displaystyle E(X^k) = \displaystyle\frac{1}{k+1}\)
Ce résultat élémentaire est d’une utilité remarquable dans les problèmes de concours : il permet de calculer rapidement toute espérance de la forme \(E(g(X))\) lorsque \(g\) est polynomiale.
Fonction génératrice des moments : pour \(t \neq 0\),
\(\displaystyle M_X(t) = E(\mathrm{e}^{tX}) = \int_a^b \displaystyle\frac{\mathrm{e}^{tx}}{b – a}\,\mathrm{d}x = \displaystyle\frac{\mathrm{e}^{tb} – \mathrm{e}^{ta}}{t(b – a)}\)
et \(M_X(0) = 1\). On retrouve \(E(X)\) et \(V(X)\) en dérivant en \(t = 0\) : \(M_X^\prime(0) = E(X)\) et \(M_X^{\prime\prime}(0) – M_X^\prime(0)^2 = V(X)\).
Au-delà des formules de base, la loi uniforme possède des propriétés structurelles puissantes — en particulier son rôle central dans la simulation de lois quelconques.
III. Propriétés et théorèmes fondamentaux
A. Symétrie
Proposition — Symétrie de la loi uniforme
Si \(X \sim \mathcal{U}([a\,;b])\), alors \(a + b – X \sim \mathcal{U}([a\,;b])\).
Démonstration : posons \(Y = a + b – X\). Pour \(y \in [a\,;b]\) :
\(\displaystyle F_Y(y) = \mathbb{P}(Y \leq y) = \mathbb{P}(a + b – X \leq y) = \mathbb{P}(X \geq a + b – y)\)
\(\displaystyle = 1 – F_X(a + b – y) = 1 – \displaystyle\frac{(a + b – y) – a}{b – a} = 1 – \displaystyle\frac{b – y}{b – a} = \displaystyle\frac{y – a}{b – a} = F_X(y)\)
Les FdR de \(X\) et \(Y\) coïncident sur \([a\,;b]\), donc \(Y \sim \mathcal{U}([a\,;b])\). □
Conséquence : la loi uniforme est symétrique par rapport à son centre \(\displaystyle\frac{a+b}{2}\), qui est à la fois l’espérance et la médiane de \(X\).
B. Transformation affine et standardisation
Théorème — Transformation affine
Soit \(X \sim \mathcal{U}([a\,;b])\) et \(Y = \alpha X + \beta\) avec \(\alpha \neq 0\).
- Si \(\alpha\) > \(0\) : \(Y \sim \mathcal{U}([\alpha a + \beta\,;\,\alpha b + \beta])\)
- Si \(\alpha\) < \(0\) : \(Y \sim \mathcal{U}([\alpha b + \beta\,;\,\alpha a + \beta])\)
Démonstration (cas \(\alpha\) > \(0\)) : pour \(y \in [\alpha a + \beta\,;\,\alpha b + \beta]\),
\(\displaystyle F_Y(y) = \mathbb{P}(\alpha X + \beta \leq y) = \mathbb{P}\!\left(X \leq \displaystyle\frac{y – \beta}{\alpha}\right) = \displaystyle\frac{\displaystyle\frac{y – \beta}{\alpha} – a}{b – a} = \displaystyle\frac{y – (\alpha a + \beta)}{\alpha(b – a)}\)
C’est la FdR de \(\mathcal{U}([\alpha a + \beta\,;\,\alpha b + \beta])\). □
Corollaire — Standardisation ⋆
Si \(X \sim \mathcal{U}([a\,;b])\), alors :
\(\displaystyle U = \displaystyle\frac{X – a}{b – a} \sim \mathcal{U}([0\,;1])\)
Réciproque : si \(U \sim \mathcal{U}([0\,;1])\), alors \(X = a + (b – a)\,U \sim \mathcal{U}([a\,;b])\).
Toute loi uniforme se ramène ainsi à \(\mathcal{U}([0\,;1])\), qui est la « brique élémentaire » universelle.
C. Méthode de l’inversion de la fonction de répartition ⋆
C’est le résultat qui fait de la loi uniforme le pivot de toute la théorie de la simulation. Il permet de simuler n’importe quelle loi continue à partir d’un seul générateur de nombres uniformes.
Théorème — Inversion de la FdR ⋆ (exigible)
Soit \(F\) une fonction de répartition continue et strictement croissante sur son support. Soit \(U \sim \mathcal{U}([0\,;1])\). Alors :
\(\displaystyle X = F^{-1}(U)\) a pour fonction de répartition \(F\).
Démonstration ⋆ : puisque \(F\) est continue et strictement croissante, elle admet une bijection réciproque \(F^{-1}\) et l’équivalence \(F^{-1}(U) \leq x \iff U \leq F(x)\) est valide. Donc :
\(\displaystyle \mathbb{P}(X \leq x) = \mathbb{P}(F^{-1}(U) \leq x) = \mathbb{P}(U \leq F(x)) = F(x)\)
La dernière égalité utilise \(U \sim \mathcal{U}([0\,;1])\), d’où \(\mathbb{P}(U \leq u) = u\) pour \(u \in [0\,;1]\). □
Ce que le correcteur attend : la clé de la preuve est de justifier l’équivalence \(F^{-1}(U) \leq x \iff U \leq F(x)\), qui repose sur la stricte croissance de \(F\). Un candidat qui l’écrit sans justification perd des points.
Application fondamentale — Simulation de la loi exponentielle :
Si \(X \sim \mathrm{Exp}(\lambda)\), sa FdR est \(F(x) = 1 – \mathrm{e}^{-\lambda x}\) pour \(x \geq 0\). On inverse :
\(\displaystyle u = 1 – \mathrm{e}^{-\lambda x} \;\Rightarrow\; x = -\displaystyle\frac{\ln(1 – u)}{\lambda}\)
Comme \(1 – U \sim \mathcal{U}([0\,;1])\) lorsque \(U \sim \mathcal{U}([0\,;1])\), on obtient la formule de simulation :
Simulation de la loi exponentielle
Si \(U \sim \mathcal{U}([0\,;1])\) et \(\lambda\) > \(0\), alors :
\(\displaystyle X = -\displaystyle\frac{\ln(U)}{\lambda} \sim \mathrm{Exp}(\lambda)\)
Ce procédé se généralise à toute loi continue dont on connaît la FdR inverse : loi normale (via l’algorithme de Box-Muller), loi de Weibull, loi de Cauchy, etc. C’est la base de la méthode de Monte-Carlo.
Ces propriétés théoriques étant établies, voyons comment les mobiliser concrètement face à un exercice.
IV. Méthode — Reconnaître et utiliser une loi uniforme
A. Quand modéliser par une loi uniforme ?
Voici les mots-clés qui, dans un énoncé, signalent une loi uniforme :
- « choisi au hasard dans \([a\,;b]\) »
- « tirage équiprobable »
- « chaque valeur est également probable »
- « densité constante sur un intervalle »
Le tableau suivant positionne la loi uniforme par rapport aux autres lois classiques.
| Situation dans l’énoncé | Loi adaptée | Argument |
|---|---|---|
| « Choisi au hasard dans \([a\,;b]\) » | \(\mathcal{U}([a\,;b])\) | Équiprobabilité continue |
| Nombre de succès sur \(n\) épreuves indépendantes | \(\mathcal{B}(n,p)\) | Épreuves de Bernoulli |
| Temps d’attente, durée de vie (sans mémoire) | \(\mathrm{Exp}(\lambda)\) | Propriété d’absence de mémoire |
| Nombre d’événements rares sur une période | \(\mathcal{P}(\lambda)\) | Événements rares indépendants |
| Mesure entachée d’erreurs symétriques | \(\mathcal{N}(\mu, \sigma^2)\) | Théorème central limite |
B. Calculs types pas à pas
Face à un exercice sur la loi uniforme continue, la démarche standard est la suivante :
- Identifier les bornes \(a\) et \(b\) depuis l’énoncé.
- Écrire la densité : \(\displaystyle f(x) = \displaystyle\frac{1}{b – a}\) sur \([a\,;b]\), \(0\) sinon.
- Calculer les probabilités par la formule \(\displaystyle \mathbb{P}(c \leq X \leq d) = \displaystyle\frac{d – c}{b – a}\), en intersectant \([c\,;d]\) avec \([a\,;b]\).
- Appliquer les formules : \(\displaystyle E(X) = \displaystyle\frac{a+b}{2}\), \(\displaystyle V(X) = \displaystyle\frac{(b – a)^2}{12}\).
- Pour \(E(g(X))\) : appliquer le théorème de transfert \(\displaystyle E(g(X)) = \int_a^b g(x) \cdot \displaystyle\frac{1}{b – a}\,\mathrm{d}x\) — ne jamais écrire \(E(g(X)) = g(E(X))\) sauf si \(g\) est affine.
Place à la pratique : voici huit exercices classés par difficulté croissante.
V. Exercices corrigés
Huit exercices de ★ à ★★★★★, couvrant les thèmes fondamentaux de ce chapitre : calculs directs, transformations, simulation, et problèmes de concours.
Exercice 1 — ★ I (Incontournable)
Soit \(X \sim \mathcal{U}([1\,;5])\).
- Calculer \(\mathbb{P}(2 \leq X \leq 4)\).
- Calculer \(E(X)\), \(V(X)\) et \(\sigma(X)\).
Voir la correction
Ici \(a = 1\), \(b = 5\), donc \(b – a = 4\).
1. \(\displaystyle \mathbb{P}(2 \leq X \leq 4) = \displaystyle\frac{4 – 2}{5 – 1} = \displaystyle\frac{2}{4} = \displaystyle\frac{1}{2}\)
2.
- \(\displaystyle E(X) = \displaystyle\frac{1 + 5}{2} = 3\)
- \(\displaystyle V(X) = \displaystyle\frac{(5-1)^2}{12} = \displaystyle\frac{16}{12} = \displaystyle\frac{4}{3}\)
- \(\displaystyle \sigma(X) = \sqrt{\displaystyle\frac{4}{3}} = \displaystyle\frac{2}{\sqrt{3}} = \displaystyle\frac{2\sqrt{3}}{3}\)
Exercice 2 — ★★
Montrer que si \(X \sim \mathcal{U}(\{1, 2, \ldots, n\})\), alors \(\displaystyle E(X) = \displaystyle\frac{n+1}{2}\) et \(\displaystyle V(X) = \displaystyle\frac{n^2 – 1}{12}\).
Voir la correction
Espérance :
\(\displaystyle E(X) = \sum_{k=1}^{n} k \cdot \displaystyle\frac{1}{n} = \displaystyle\frac{1}{n} \cdot \displaystyle\frac{n(n+1)}{2} = \displaystyle\frac{n+1}{2}\)
Variance (par König-Huygens) :
\(\displaystyle E(X^2) = \displaystyle\frac{1}{n}\sum_{k=1}^{n} k^2 = \displaystyle\frac{(n+1)(2n+1)}{6}\)
\(\displaystyle V(X) = \displaystyle\frac{(n+1)(2n+1)}{6} – \left(\displaystyle\frac{n+1}{2}\right)^{\!2} = (n+1)\left[\displaystyle\frac{2n+1}{6} – \displaystyle\frac{n+1}{4}\right] = (n+1) \cdot \displaystyle\frac{2(2n+1) – 3(n+1)}{12}\)
\(\displaystyle = (n+1) \cdot \displaystyle\frac{n – 1}{12} = \displaystyle\frac{n^2 – 1}{12} \quad \blacksquare\)
Exercice 3 — ★★
Soit \(U \sim \mathcal{U}([0\,;1])\) et \(Y = 3U – 1\).
- Déterminer la loi de \(Y\).
- Vérifier que \(E(Y) = 3\,E(U) – 1\).
Voir la correction
1. Par le théorème de transformation affine avec \(\alpha = 3\) > \(0\) et \(\beta = -1\) :
\(Y \sim \mathcal{U}([3 \cdot 0 – 1\,;\,3 \cdot 1 – 1]) = \mathcal{U}([-1\,;2])\)
2. \(\displaystyle E(Y) = \displaystyle\frac{-1 + 2}{2} = \displaystyle\frac{1}{2}\) et \(\displaystyle 3\,E(U) – 1 = 3 \cdot \displaystyle\frac{1}{2} – 1 = \displaystyle\frac{1}{2}\). C’est cohérent — la linéarité de l’espérance le garantit.
Exercice 4 — ★★★
Soit \(X\) une variable aléatoire suivant la loi uniforme sur \(\left[-1\,;\displaystyle\frac{3}{2}\right]\).
- Montrer que \(|X|\) est une variable aléatoire à densité et déterminer une densité de \(|X|\).
- Par deux méthodes, montrer que \(|X|\) admet une espérance et la déterminer.
Voir la correction
On a \(X \sim \mathcal{U}\!\left(\left[-1\,;\displaystyle\frac{3}{2}\right]\right)\), de densité \(\displaystyle f_X(x) = \displaystyle\frac{1}{\frac{3}{2} – (-1)} = \displaystyle\frac{2}{5}\) sur \(\left[-1\,;\displaystyle\frac{3}{2}\right]\).
1. Densité de \(|X|\)
Posons \(Y = |X|\). Puisque \(X \in \left[-1\,;\displaystyle\frac{3}{2}\right]\), on a \(Y \in \left[0\,;\displaystyle\frac{3}{2}\right]\).
On calcule la FdR de \(Y\) par disjonction de cas.
Cas \(t \in [0\,;1]\) : comme \(-t \geq -1\), l’intervalle \([-t\,;t]\) est inclus dans \(\left[-1\,;\displaystyle\frac{3}{2}\right]\).
\(\displaystyle F_Y(t) = \mathbb{P}(|X| \leq t) = \mathbb{P}(-t \leq X \leq t) = \displaystyle\frac{t – (-t)}{5/2} = \displaystyle\frac{2t}{5/2} = \displaystyle\frac{4t}{5}\)
Cas \(t \in \left]1\,;\displaystyle\frac{3}{2}\right]\) : comme \(-t\) < \(-1\), on intersecte \([-t\,;t]\) avec le support \(\left[-1\,;\displaystyle\frac{3}{2}\right]\) et on obtient \([-1\,;t]\).
\(\displaystyle F_Y(t) = \mathbb{P}(-1 \leq X \leq t) = \displaystyle\frac{t – (-1)}{5/2} = \displaystyle\frac{2(t + 1)}{5}\)
Vérification de continuité en \(t = 1\) : \(\displaystyle\frac{4 \cdot 1}{5} = \displaystyle\frac{4}{5}\) et \(\displaystyle\frac{2(1+1)}{5} = \displaystyle\frac{4}{5}\). ✓
La FdR \(F_Y\) est continue et dérivable par morceaux, donc \(Y = |X|\) est une variable aléatoire à densité. On dérive :
\(\displaystyle f_Y(t) = \begin{cases} \displaystyle\frac{4}{5} & \text{si } t \in \left[0\,;1\right[ \\[6pt] \displaystyle\frac{2}{5} & \text{si } t \in \left[1\,;\displaystyle\frac{3}{2}\right] \\[6pt] 0 & \text{sinon} \end{cases}\)
Vérification : \(\displaystyle \int_0^1 \displaystyle\frac{4}{5}\,\mathrm{d}t + \int_1^{3/2} \displaystyle\frac{2}{5}\,\mathrm{d}t = \displaystyle\frac{4}{5} + \displaystyle\frac{2}{5} \cdot \displaystyle\frac{1}{2} = \displaystyle\frac{4}{5} + \displaystyle\frac{1}{5} = 1\). ✓
2. Espérance de \(|X|\) — deux méthodes
Méthode 1 — Via la densité de \(|X|\) :
\(\displaystyle E(|X|) = \int_0^1 t \cdot \displaystyle\frac{4}{5}\,\mathrm{d}t + \int_1^{3/2} t \cdot \displaystyle\frac{2}{5}\,\mathrm{d}t = \displaystyle\frac{4}{5}\left[\displaystyle\frac{t^2}{2}\right]_0^1 + \displaystyle\frac{2}{5}\left[\displaystyle\frac{t^2}{2}\right]_1^{3/2}\)
\(\displaystyle = \displaystyle\frac{4}{5} \cdot \displaystyle\frac{1}{2} + \displaystyle\frac{2}{5}\left(\displaystyle\frac{9}{8} – \displaystyle\frac{1}{2}\right) = \displaystyle\frac{2}{5} + \displaystyle\frac{2}{5} \cdot \displaystyle\frac{5}{8} = \displaystyle\frac{2}{5} + \displaystyle\frac{1}{4} = \displaystyle\frac{8 + 5}{20} = \displaystyle\frac{13}{20}\)
Méthode 2 — Par le théorème de transfert appliqué à \(X\) :
\(\displaystyle E(|X|) = \int_{-1}^{3/2} |x| \cdot \displaystyle\frac{2}{5}\,\mathrm{d}x = \displaystyle\frac{2}{5}\left[\int_{-1}^{0} (-x)\,\mathrm{d}x + \int_0^{3/2} x\,\mathrm{d}x\right]\)
\(\displaystyle = \displaystyle\frac{2}{5}\left[\displaystyle\frac{1}{2} + \displaystyle\frac{9}{8}\right] = \displaystyle\frac{2}{5} \cdot \displaystyle\frac{4 + 9}{8} = \displaystyle\frac{2}{5} \cdot \displaystyle\frac{13}{8} = \displaystyle\frac{13}{20}\)
Les deux méthodes donnent bien \(\displaystyle E(|X|) = \displaystyle\frac{13}{20} = 0{,}65\).
Exercice 5 — ★★★
On choisit un nombre \(X\) au hasard dans \([-2\,;4]\).
- Quelle loi suit \(X\) ? Écrire sa densité.
- Calculer \(\mathbb{P}(|X| \leq 1)\).
- Calculer \(\mathbb{P}(X^2 \leq 4)\).
- Calculer \(E(|X|)\).
Voir la correction
1. « Au hasard » dans un intervalle signifie loi uniforme : \(X \sim \mathcal{U}([-2\,;4])\), de densité \(\displaystyle f(x) = \displaystyle\frac{1}{6}\) sur \([-2\,;4]\).
2. \(|X| \leq 1 \iff -1 \leq X \leq 1\). L’intervalle \([-1\,;1] \subset [-2\,;4]\), donc :
\(\displaystyle \mathbb{P}(|X| \leq 1) = \displaystyle\frac{1 – (-1)}{4 – (-2)} = \displaystyle\frac{2}{6} = \displaystyle\frac{1}{3}\)
3. \(X^2 \leq 4 \iff -2 \leq X \leq 2\). On intersecte avec \([-2\,;4]\) : intervalle utile \(= [-2\,;2]\).
\(\displaystyle \mathbb{P}(X^2 \leq 4) = \displaystyle\frac{2 – (-2)}{6} = \displaystyle\frac{4}{6} = \displaystyle\frac{2}{3}\)
4. Par le théorème de transfert :
\(\displaystyle E(|X|) = \int_{-2}^{4} |x| \cdot \displaystyle\frac{1}{6}\,\mathrm{d}x = \displaystyle\frac{1}{6}\left[\int_{-2}^{0} (-x)\,\mathrm{d}x + \int_0^4 x\,\mathrm{d}x\right]\)
\(\displaystyle = \displaystyle\frac{1}{6}\left[\displaystyle\frac{4}{2} + \displaystyle\frac{16}{2}\right] = \displaystyle\frac{1}{6} \cdot 10 = \displaystyle\frac{5}{3}\)
Notons que \(\displaystyle E(|X|) = \displaystyle\frac{5}{3} \neq |E(X)| = |1| = 1\) : on retrouve que \(E(|X|) \neq |E(X)|\) en général.
Exercice 6 — ★★★
Soit \(U \sim \mathcal{U}([0\,;1])\) et \(\lambda\) > \(0\). On pose \(\displaystyle X = -\displaystyle\frac{\ln(U)}{\lambda}\).
- Rappeler la fonction de répartition de la loi exponentielle de paramètre \(\lambda\).
- Calculer la FdR de \(X\).
- En déduire la loi de \(X\).
Voir la correction
1. Pour \(Y \sim \mathrm{Exp}(\lambda)\), \(F_Y(t) = 1 – \mathrm{e}^{-\lambda t}\) pour \(t \geq 0\), et \(F_Y(t) = 0\) pour \(t\) < \(0\).
2. Pour \(t \geq 0\) :
\(\displaystyle F_X(t) = \mathbb{P}(X \leq t) = \mathbb{P}\!\left(-\displaystyle\frac{\ln(U)}{\lambda} \leq t\right) = \mathbb{P}(\ln(U) \geq -\lambda t) = \mathbb{P}(U \geq \mathrm{e}^{-\lambda t})\)
\(\displaystyle = 1 – \mathbb{P}(U \leq \mathrm{e}^{-\lambda t}) = 1 – \mathrm{e}^{-\lambda t}\)
(car \(\mathrm{e}^{-\lambda t} \in [0\,;1]\) et \(U \sim \mathcal{U}([0\,;1])\)). Pour \(t\) < \(0\), \(F_X(t) = 0\) car \(X \geq 0\) p.s.
3. On reconnaît \(F_X = F_Y\), donc \(\displaystyle X = -\displaystyle\frac{\ln(U)}{\lambda} \sim \mathrm{Exp}(\lambda)\). □
Exercice 7 — ★★★★
Soient \(X_1, X_2, \ldots, X_n\) des variables aléatoires indépendantes de même loi \(\mathcal{U}([0\,;1])\). On pose \(M_n = \max(X_1, \ldots, X_n)\).
- Montrer que \(\forall\, t \in [0\,;1],\; F_{M_n}(t) = t^n\).
- En déduire la densité de \(M_n\).
- Calculer \(E(M_n)\).
- Déterminer \(\displaystyle\lim_{n \to +\infty} E(M_n)\) et interpréter.
Voir la correction
1. Pour \(t \in [0\,;1]\) :
\(\displaystyle F_{M_n}(t) = \mathbb{P}(M_n \leq t) = \mathbb{P}(X_1 \leq t, \ldots, X_n \leq t)\)
Par indépendance :
\(\displaystyle = \prod_{i=1}^{n} \mathbb{P}(X_i \leq t) = \prod_{i=1}^{n} t = t^n \quad \blacksquare\)
2. La densité est la dérivée de la FdR : \(f_{M_n}(t) = n\,t^{n-1}\) pour \(t \in [0\,;1]\).
3.
\(\displaystyle E(M_n) = \int_0^1 t \cdot n\,t^{n-1}\,\mathrm{d}t = n \int_0^1 t^n\,\mathrm{d}t = n \cdot \displaystyle\frac{1}{n+1} = \displaystyle\frac{n}{n+1}\)
4. \(\displaystyle\lim_{n \to +\infty} E(M_n) = \lim_{n \to +\infty} \displaystyle\frac{n}{n+1} = 1\).
Interprétation : quand le nombre de tirages \(n\) croît, le maximum se rapproche de \(1\). Plus précisément, \(M_n \overset{\text{p.s.}}{\longrightarrow} 1\) — le maximum d’un grand nombre de tirages uniformes dans \([0\,;1]\) finit par atteindre le bord supérieur de l’intervalle.
Exercice 8 — ★★★★
Soit \(X \sim \mathcal{U}([1\,;\mathrm{e}])\).
- Calculer \(E(\ln X)\).
- A-t-on \(E(\ln X) = \ln(E(X))\) ? Justifier.
Voir la correction
1. Par le théorème de transfert :
\(\displaystyle E(\ln X) = \int_1^{\mathrm{e}} \ln(x) \cdot \displaystyle\frac{1}{\mathrm{e} – 1}\,\mathrm{d}x = \displaystyle\frac{1}{\mathrm{e} – 1}\int_1^{\mathrm{e}} \ln(x)\,\mathrm{d}x\)
Intégration par parties avec \(u = \ln x\), \(v^\prime = 1\) :
\(\displaystyle \int_1^{\mathrm{e}} \ln(x)\,\mathrm{d}x = [x\ln x – x]_1^{\mathrm{e}} = (\mathrm{e} \cdot 1 – \mathrm{e}) – (1 \cdot 0 – 1) = 0 + 1 = 1\)
Donc \(\displaystyle E(\ln X) = \displaystyle\frac{1}{\mathrm{e} – 1} \approx 0{,}582\).
2. \(\displaystyle E(X) = \displaystyle\frac{1 + \mathrm{e}}{2} \approx 1{,}859\), d’où \(\displaystyle \ln(E(X)) = \ln\!\left(\displaystyle\frac{1 + \mathrm{e}}{2}\right) \approx 0{,}620\).
Donc \(E(\ln X) \neq \ln(E(X))\). Plus précisément, \(E(\ln X)\) < \(\ln(E(X))\).
C’est une conséquence de l’inégalité de Jensen : \(\ln\) étant concave, on a \(E(g(X)) \leq g(E(X))\) pour toute variable aléatoire \(X\) non constante. L’inégalité est stricte car \(X\) n’est pas p.s. constante.
Exercice 9 — ★★★★★ (Concours)
Soient \(X\) et \(Y\) deux variables aléatoires indépendantes de même loi \(\mathcal{U}([0\,;1])\). On pose \(S = X + Y\).
- Montrer que pour \(s \in [0\,;1]\), la densité de \(S\) vaut \(f_S(s) = s\).
- Montrer que pour \(s \in \,]1\,;2]\), \(f_S(s) = 2 – s\).
- Identifier la loi de \(S\).
- Retrouver \(E(S)\) et \(V(S)\) par un calcul direct, puis par linéarité.
Voir la correction
La densité de \(S = X + Y\) est donnée par le produit de convolution des densités de \(X\) et \(Y\) :
\(\displaystyle f_S(s) = \int_{-\infty}^{+\infty} f_X(x) \cdot f_Y(s – x)\,\mathrm{d}x\)
Puisque \(f_X = f_Y = \mathbf{1}_{[0;1]}\), le produit \(f_X(x) \cdot f_Y(s-x)\) est non nul ssi \(0 \leq x \leq 1\) et \(0 \leq s – x \leq 1\), soit \(\max(0, s-1) \leq x \leq \min(1, s)\).
1. Cas \(s \in [0\,;1]\) : les bornes d’intégration sont \(x \in [0\,;s]\).
\(\displaystyle f_S(s) = \int_0^s 1 \cdot 1\,\mathrm{d}x = s \quad \blacksquare\)
2. Cas \(s \in \,]1\,;2]\) : les bornes sont \(x \in [s-1\,;1]\).
\(\displaystyle f_S(s) = \int_{s-1}^1 \mathrm{d}x = 1 – (s-1) = 2 – s \quad \blacksquare\)
3. La densité \(f_S\) est triangulaire sur \([0\,;2]\), avec un pic en \(s = 1\). C’est la loi triangulaire \(\mathrm{Tri}(0, 1, 2)\).
4. Par calcul direct :
\(\displaystyle E(S) = \int_0^1 s \cdot s\,\mathrm{d}s + \int_1^2 s(2-s)\,\mathrm{d}s = \int_0^1 s^2\,\mathrm{d}s + \int_1^2 (2s – s^2)\,\mathrm{d}s\)
\(\displaystyle = \displaystyle\frac{1}{3} + \left[s^2 – \displaystyle\frac{s^3}{3}\right]_1^2 = \displaystyle\frac{1}{3} + \left(4 – \displaystyle\frac{8}{3}\right) – \left(1 – \displaystyle\frac{1}{3}\right) = \displaystyle\frac{1}{3} + \displaystyle\frac{4}{3} – \displaystyle\frac{2}{3} = 1\)
Par linéarité : \(\displaystyle E(S) = E(X) + E(Y) = \displaystyle\frac{1}{2} + \displaystyle\frac{1}{2} = 1\). (Vérification cohérente.)
Variance : par indépendance, \(\displaystyle V(S) = V(X) + V(Y) = \displaystyle\frac{1}{12} + \displaystyle\frac{1}{12} = \displaystyle\frac{1}{6}\).
La fiche de révision loi uniforme en 1 page
Définitions, densité, FdR, espérance, variance, théorème d’inversion — tout ce qu’il faut savoir le jour du concours, sur une seule page recto.
📄 Télécharger la fiche PDFImprime-la et glisse-la dans ton classeur — tu gagneras un temps précieux en révision.
Tu veux t’entraîner davantage ? Découvre nos exercices corrigés sur les variables aléatoires.
VI. Erreurs fréquentes et pièges classiques
Piège 1 — Confondre densité et probabilité
❌ Copie fautive : « \(\mathbb{P}(X = 3) = f(3) = \displaystyle\frac{1}{b – a}\) »
Diagnostic : pour une variable aléatoire continue, \(\mathbb{P}(X = x_0) = 0\) pour tout \(x_0\). La densité n’est pas une probabilité — c’est une probabilité par unité de longueur.
✅ Correction : on calcule \(\displaystyle\mathbb{P}(X \in I) = \int_I f(x)\,\mathrm{d}x\). Un point isolé a une mesure nulle.
Piège 2 — Oublier d’intersecter avec le support
❌ Copie fautive : « Soit \(X \sim \mathcal{U}([1\,;3])\). \(\displaystyle\mathbb{P}(X \leq 5) = \int_{-\infty}^{5} \displaystyle\frac{1}{2}\,\mathrm{d}x = +\infty\) »
Diagnostic : la densité vaut \(\displaystyle\frac{1}{2}\) uniquement sur \([1\,;3]\), et \(0\) ailleurs. L’intégrale n’est pas sur \(]-\infty\,;5]\) mais sur \([1\,;\min(3,5)] = [1\,;3]\).
✅ Correction : \(\displaystyle\mathbb{P}(X \leq 5) = \int_1^3 \displaystyle\frac{1}{2}\,\mathrm{d}x = 1\). (Logique : \(5\) > \(b = 3\), donc l’événement est certain.)
Piège 3 — Erreur de formule sur la variance
❌ Copie fautive : « \(\displaystyle V(X) = \displaystyle\frac{b – a}{12}\) »
Diagnostic : il manque le carré. L’erreur est fréquente par confusion avec une autre formule ou par étourderie.
✅ Correction : \(\displaystyle V(X) = \displaystyle\frac{(b – a)^2}{12}\). Un bon réflexe : la variance est homogène au carré d’une longueur, donc \((b – a)^2\) et non \((b – a)\).
Piège 4 — Appliquer \(E(g(X)) = g(E(X))\)
❌ Copie fautive : « \(\displaystyle E\!\left(\displaystyle\frac{1}{X}\right) = \displaystyle\frac{1}{E(X)} = \displaystyle\frac{2}{a+b}\) »
Diagnostic : l’égalité \(E(g(X)) = g(E(X))\) n’est valable que si \(g\) est affine. Pour \(g(x) = 1/x\) (fonction convexe), l’inégalité de Jensen donne \(E(1/X) \geq 1/E(X)\) — strictement si \(X\) n’est pas constante.
✅ Correction : on applique le théorème de transfert : \(\displaystyle E\!\left(\displaystyle\frac{1}{X}\right) = \int_a^b \displaystyle\frac{1}{x} \cdot \displaystyle\frac{1}{b – a}\,\mathrm{d}x = \displaystyle\frac{\ln b – \ln a}{b – a} = \displaystyle\frac{\ln(b/a)}{b – a}\) (pour \(0\) < \(a\) < \(b\)).
Pour finir, voici les réponses aux questions les plus courantes sur la loi uniforme.
VII. Questions fréquentes
Qu'est-ce que la loi uniforme en mathématiques ?
La loi uniforme est un modèle probabiliste qui traduit l’équiprobabilité. Dans sa version discrète, chaque valeur d’un ensemble fini a la même probabilité \(\displaystyle\frac{1}{n}\). Dans sa version continue sur \([a\,;b]\), la probabilité de tomber dans un sous-intervalle est proportionnelle à sa longueur : \(\displaystyle\mathbb{P}(X \in [c\,;d]) = \displaystyle\frac{d-c}{b-a}\).
Comment montrer qu'une variable aléatoire suit une loi uniforme ?
Deux méthodes principales : (1) Calculer la fonction de répartition \(F_X\) et vérifier qu’elle a la forme \(\displaystyle\frac{x – a}{b – a}\) sur \([a\,;b]\). (2) Calculer la densité \(f_X\) et vérifier qu’elle est constante sur un intervalle et nulle ailleurs. La première méthode est souvent plus directe dans les exercices de transformation de variables.
Quelle est la différence entre loi uniforme discrète et continue ?
La loi discrète porte sur un ensemble fini \(\{x_1, \ldots, x_n\}\) : chaque valeur a une probabilité \(\displaystyle\frac{1}{n}\) non nulle. La loi continue porte sur un intervalle \([a\,;b]\) : aucun point n’a de probabilité non nulle, et on raisonne avec une densité constante \(\displaystyle\frac{1}{b – a}\). Les formules d’espérance et de variance sont analogues mais distinctes.
»Pourquoi
vaut-elle (b−a)²/12 ? »]
C’est un résultat du calcul intégral direct. On obtient \(\displaystyle E(X^2) = \displaystyle\frac{a^2 + ab + b^2}{3}\) par intégration, puis la formule de König-Huygens \(V(X) = E(X^2) – E(X)^2\) donne \(\displaystyle\frac{(b – a)^2}{12}\) après simplification algébrique. Le facteur \(12\) provient du calcul \(\displaystyle\frac{1}{3} – \displaystyle\frac{1}{4} = \displaystyle\frac{1}{12}\) appliqué aux termes dominants. La démonstration complète est détaillée dans la section II.
Comment simuler une loi quelconque à partir de la loi uniforme ?
On utilise la méthode d’inversion de la fonction de répartition : si \(U \sim \mathcal{U}([0\,;1])\) et \(F\) est une FdR continue strictement croissante, alors \(X = F^{-1}(U)\) suit la loi de FdR \(F\). Par exemple, \(\displaystyle-\displaystyle\frac{\ln(U)}{\lambda}\) suit la loi exponentielle de paramètre \(\lambda\). C’est la base des générateurs aléatoires et de la méthode de Monte-Carlo.
Quelle est la différence entre la loi uniforme et la loi exponentielle ?
La loi uniforme \(\mathcal{U}([a\,;b])\) a une densité constante sur un intervalle borné : toutes les valeurs sont équiprobables. La loi exponentielle \(\mathrm{Exp}(\lambda)\) a une densité décroissante sur \([0\,;+\infty[\) : les petites valeurs sont plus probables. La loi exponentielle possède la propriété d’absence de mémoire, pas la loi uniforme. Cependant, les deux sont liées : on passe de l’une à l’autre par la transformation \(\displaystyle X = -\displaystyle\frac{\ln(U)}{\lambda}\).
VIII. Pour aller plus loin
Tu maîtrises désormais la loi uniforme — définitions, formules, démonstrations exigibles et techniques de calcul. Pour poursuivre :
- Loi exponentielle — la loi continue obtenue par transformation de la loi uniforme via \(-\ln(U)/\lambda\)
- Loi normale — autre loi continue fondamentale, reliée à la loi uniforme par l’algorithme de Box-Muller
- Espérance — cours complet sur le calcul de \(E(X)\) pour toutes les lois classiques
- Variance — formule de König-Huygens, propriétés et démonstrations
- Fonction de répartition et densité — le cadre général des lois continues
- Exercices corrigés — Variables aléatoires — entraînement complémentaire sur l’ensemble du chapitre