Rédigé et vérifié par un professeur diplômé de l’École Polytechnique, avec le niveau d’exigence attendu en classe préparatoire. Découvrir le professeur
La loi exponentielle est la loi de probabilité continue qui modélise le temps d’attente entre deux événements indépendants survenant à taux constant : désintégration d’un noyau radioactif, temps entre deux appels dans un centre d’appel, durée de vie d’un composant électronique. Analogue continu de la loi géométrique, c’est la seule loi continue vérifiant la propriété d’absence de mémoire — un résultat que nous démontrerons intégralement dans cet article.
Tu trouveras ici le cours complet sur la loi exponentielle : définition formelle (densité, fonction de répartition), propriétés avec démonstrations exigibles (espérance, variance, absence de mémoire, caractérisation), liens avec le processus de Poisson et les autres distributions, méthode de résolution, et 6 exercices corrigés classés par difficulté. Pour une vue d’ensemble du chapitre, consulte le cours complet sur les variables aléatoires.
📚 Tout le cours « Variables Aléatoires »
- 📖 Variable Aléatoire : Cours Complet
- → Espérance
- → Variance
- → Écart-type
- → Loi Binomiale
- → Loi Normale
- → Table Loi Normale
- → Loi de Poisson
- → Loi Uniforme
- → Loi Exponentielle (cette page)
- → Loi Géométrique
- → Fonction de Répartition et Densité
- ✏️ Exercices Loi Binomiale
- ✏️ Exercices Variables Aléatoires
I. Définition de la loi exponentielle
A. Densité de probabilité
Définition — Loi exponentielle \(\mathcal{E}(\lambda)\)
Soit \(\lambda \in \mathbb{R}_+^*\). On dit qu’une variable aléatoire réelle \(X\) suit la loi exponentielle de paramètre \(\lambda\), et on note \(X \sim \mathcal{E}(\lambda)\), si \(X\) admet pour densité la fonction \(f\) définie par :
\(\displaystyle f(x) = \begin{cases} \lambda \, e^{-\lambda x} & \text{si } x \geq 0 \\ 0 & \text{sinon} \end{cases}\)
Le paramètre \(\lambda\) s’appelle le taux (ou intensité) de la loi. Plus \(\lambda\) est grand, plus la densité décroît rapidement : les valeurs proches de \(0\) sont plus probables. La densité fait intervenir la fonction exponentielle \(x \mapsto e^{-\lambda x}\), d’où le nom de la loi.
Vérification. On s’assure que \(f\) est bien une densité de probabilité :
\(\displaystyle \int_{-\infty}^{+\infty} f(x) \, dx = \int_0^{+\infty} \lambda \, e^{-\lambda x} \, dx = \left[-e^{-\lambda x}\right]_0^{+\infty} = 0 – (-1) = 1\)
La fonction \(f\) est positive et son intégrale sur \(\mathbb{R}\) vaut \(1\) : c’est bien une densité. ■
Programme CPGE : La loi exponentielle est au programme des filières ECG, BCPST et BL (variables aléatoires à densité). Les résultats marqués ⋆ sont exigibles aux concours.
B. Fonction de répartition
La fonction de répartition \(F\) de \(X \sim \mathcal{E}(\lambda)\) se calcule directement par intégration de la densité.
Propriété — Fonction de répartition de \(\mathcal{E}(\lambda)\)
Pour tout \(x \in \mathbb{R}\) :
\(\displaystyle F(x) = \begin{cases} 1 – e^{-\lambda x} & \text{si } x \geq 0 \\ 0 & \text{sinon} \end{cases}\)
Démonstration. Pour \(x \geq 0\) :
\(\displaystyle F(x) = \int_0^{x} \lambda \, e^{-\lambda t} \, dt = \left[-e^{-\lambda t}\right]_0^{x} = -e^{-\lambda x} + 1 = 1 – e^{-\lambda x}\)
On vérifie que \(F^\prime(x) = \lambda \, e^{-\lambda x} = f(x)\) pour \(x\) > \(0\), conformément à la théorie de la dérivation. ■
La fonction de survie (ou fonction de fiabilité), très utilisée en fiabilité industrielle, est :
\(\displaystyle S(x) = P(X > x) = 1 – F(x) = e^{-\lambda x} \quad \text{pour } x \geq 0\)
En pratique, c’est souvent \(S(x) = e^{-\lambda x}\) que l’on utilise en premier dans les calculs de probabilité sur la loi exponentielle.
C. Représentation graphique
L’allure de la densité et de la fonction de répartition dépend fortement du paramètre \(\lambda\). Plus \(\lambda\) est grand, plus la densité est concentrée près de \(0\) et plus la fonction de répartition croît rapidement vers \(1\).
Ces graphiques illustrent un point essentiel : la loi exponentielle est une loi à support positif. La variable \(X\) ne prend que des valeurs dans \([0 \,;\, +\infty[\), ce qui est cohérent avec son interprétation comme durée d’attente.
Les propriétés fondamentales de cette loi — espérance, variance, absence de mémoire — découlent toutes de la forme particulière de la densité. Commençons par les calculer.
II. Espérance, variance et moments
A. Espérance et variance ⋆
Propriété — Espérance et variance de \(\mathcal{E}(\lambda)\)
Soit \(X \sim \mathcal{E}(\lambda)\). Alors :
\(\displaystyle E(X) = \displaystyle\frac{1}{\lambda} \qquad V(X) = \displaystyle\frac{1}{\lambda^2} \qquad \sigma(X) = \displaystyle\frac{1}{\lambda}\)
L’espérance est l’inverse du taux : si un composant tombe en panne en moyenne au bout de \(100\) heures, alors \(\lambda = 0{,}01\). L’écart-type est égal à l’espérance, ce qui est une propriété caractéristique de la loi exponentielle.
Démonstration ⋆ — Calcul de \(E(X)\). On effectue une intégration par parties en posant \(u(x) = x\) et \(v^\prime(x) = \lambda \, e^{-\lambda x}\), d’où \(u^\prime(x) = 1\) et \(v(x) = -e^{-\lambda x}\) :
\(\displaystyle E(X) = \int_0^{+\infty} x \, \lambda \, e^{-\lambda x} \, dx = \left[-x \, e^{-\lambda x}\right]_0^{+\infty} + \int_0^{+\infty} e^{-\lambda x} \, dx\)
Par croissances comparées, \(\lim_{x \to +\infty} x \, e^{-\lambda x} = 0\), donc le crochet vaut \(0\). Il reste :
\(\displaystyle E(X) = \int_0^{+\infty} e^{-\lambda x} \, dx = \left[-\displaystyle\frac{1}{\lambda} \, e^{-\lambda x}\right]_0^{+\infty} = 0 + \displaystyle\frac{1}{\lambda} = \displaystyle\frac{1}{\lambda}\) ■
Démonstration ⋆ — Calcul de \(V(X)\). On utilise la formule de König-Huygens : \(V(X) = E(X^2) – \big(E(X)\big)^2\). Calculons \(E(X^2)\) par intégration par parties en posant \(u(x) = x^2\) et \(v^\prime(x) = \lambda \, e^{-\lambda x}\) :
\(\displaystyle E(X^2) = \int_0^{+\infty} x^2 \, \lambda \, e^{-\lambda x} \, dx = \left[-x^2 \, e^{-\lambda x}\right]_0^{+\infty} + \int_0^{+\infty} 2x \, e^{-\lambda x} \, dx\)
Par croissances comparées, le crochet vaut \(0\). On reconnaît dans l’intégrale restante :
\(\displaystyle E(X^2) = \displaystyle\frac{2}{\lambda} \int_0^{+\infty} x \, \lambda \, e^{-\lambda x} \, dx = \displaystyle\frac{2}{\lambda} \, E(X) = \displaystyle\frac{2}{\lambda^2}\)
D’où :
\(\displaystyle V(X) = \displaystyle\frac{2}{\lambda^2} – \left(\displaystyle\frac{1}{\lambda}\right)^2 = \displaystyle\frac{2}{\lambda^2} – \displaystyle\frac{1}{\lambda^2} = \displaystyle\frac{1}{\lambda^2}\) ■
Retenir : pour \(\mathcal{E}(\lambda)\), espérance et écart-type sont égaux : \(E(X) = \sigma(X) = \displaystyle\frac{1}{\lambda}\). Si l’énoncé donne une espérance \(m\), alors \(\lambda = \displaystyle\frac{1}{m}\).
B. Moments d’ordre \(n\) et fonction génératrice des moments
La formule de l’espérance se généralise à tous les moments :
Propriété — Moments de \(\mathcal{E}(\lambda)\)
Pour tout \(n \in \mathbb{N}\) :
\(\displaystyle E(X^n) = \displaystyle\frac{n!}{\lambda^n}\)
Démonstration (esquisse). Par récurrence, en posant \(u = x^n\) et \(v^\prime = \lambda e^{-\lambda x}\) dans l’intégration par parties, on obtient \(E(X^n) = \displaystyle\frac{n}{\lambda} \, E(X^{n-1})\). Avec \(E(X^0) = 1\), on conclut \(E(X^n) = \displaystyle\frac{n!}{\lambda^n}\). ■
La fonction génératrice des moments (FGM) résume tous les moments en une seule expression :
Propriété — Fonction génératrice des moments
Pour tout \(t\) < \(\lambda\) :
\(\displaystyle M_X(t) = E\!\left(e^{tX}\right) = \displaystyle\frac{\lambda}{\lambda – t}\)
Démonstration.
\(\displaystyle M_X(t) = \int_0^{+\infty} e^{tx} \, \lambda \, e^{-\lambda x} \, dx = \lambda \int_0^{+\infty} e^{-(\lambda – t)x} \, dx = \displaystyle\frac{\lambda}{\lambda – t}\)
L’intégrale converge si et seulement si \(\lambda – t\) > \(0\), d’où la condition \(t\) < \(\lambda\). ■
On retrouve les moments par dérivation successive : \(E(X) = M_X^\prime(0) = \displaystyle\frac{1}{\lambda}\), puis \(E(X^2) = M_X^{\prime\prime}(0) = \displaystyle\frac{2}{\lambda^2}\).
C. Médiane et quantiles
La médiane \(m\) vérifie \(F(m) = \displaystyle\frac{1}{2}\), soit :
\(\displaystyle 1 – e^{-\lambda m} = \displaystyle\frac{1}{2} \quad \Longleftrightarrow \quad e^{-\lambda m} = \displaystyle\frac{1}{2} \quad \Longleftrightarrow \quad m = \displaystyle\frac{\ln 2}{\lambda}\)
Plus généralement, le quantile d’ordre \(\alpha\) (avec \(0\) < \(\alpha\) < \(1\)) est :
\(\displaystyle q_\alpha = -\displaystyle\frac{\ln(1 – \alpha)}{\lambda}\)
On remarque que \(m = \displaystyle\frac{\ln 2}{\lambda} \approx \displaystyle\frac{0{,}693}{\lambda}\) < \(\displaystyle\frac{1}{\lambda} = E(X)\) : la médiane est strictement inférieure à l’espérance. Cela traduit l’asymétrie (à droite) de la distribution.
Le tableau ci-dessous récapitule toutes les propriétés de \(\mathcal{E}(\lambda)\).
| Propriété | Formule |
|---|---|
| Notation | \(X \sim \mathcal{E}(\lambda)\), \(\lambda\) > \(0\) |
| Support | \([0 \,;\, +\infty[\) |
| Densité | \(f(x) = \lambda \, e^{-\lambda x}\) pour \(x \geq 0\) |
| Fonction de répartition | \(F(x) = 1 – e^{-\lambda x}\) pour \(x \geq 0\) |
| Espérance | \(E(X) = \displaystyle\frac{1}{\lambda}\) |
| Variance | \(V(X) = \displaystyle\frac{1}{\lambda^2}\) |
| Écart-type | \(\sigma(X) = \displaystyle\frac{1}{\lambda}\) |
| Médiane | \(\displaystyle\frac{\ln 2}{\lambda}\) |
| Moment d’ordre \(n\) | \(E(X^n) = \displaystyle\frac{n!}{\lambda^n}\) |
| FGM | \(M_X(t) = \displaystyle\frac{\lambda}{\lambda – t}\) pour \(t\) < \(\lambda\) |
Ces propriétés calculatoires ne suffisent pas à caractériser la loi exponentielle parmi les lois continues. Ce qui la rend unique, c’est sa propriété d’absence de mémoire.
III. Propriété d’absence de mémoire
La propriété d’absence de mémoire (aussi appelée propriété sans vieillissement) est le résultat central de ce chapitre. Elle exprime qu’un composant dont la durée de vie suit une loi exponentielle « ne vieillit pas » : la probabilité de survivre encore un temps \(t\) ne dépend pas du temps déjà écoulé.
A. Énoncé et démonstration ⋆
Théorème — Propriété d’absence de mémoire
Soit \(X \sim \mathcal{E}(\lambda)\). Pour tous réels \(s, t \geq 0\) :
\(\displaystyle P(X > s + t \mid X > s) = P(X > t)\)
Démonstration ⋆. L’événement \(\{X > s + t\}\) est inclus dans \(\{X > s\}\), donc \(\{X > s + t\} \cap \{X > s\} = \{X > s + t\}\). Par définition de la probabilité conditionnelle :
\(\displaystyle P(X > s + t \mid X > s) = \displaystyle\frac{P(X > s + t)}{P(X > s)} = \displaystyle\frac{e^{-\lambda(s + t)}}{e^{-\lambda s}} = e^{-\lambda t} = P(X > t)\) ■
Interprétation. Si \(X\) modélise la durée de vie d’un composant et que celui-ci a déjà fonctionné pendant \(s\) heures, la probabilité qu’il fonctionne encore \(t\) heures supplémentaires est la même que s’il était neuf. Le composant ne se dégrade pas avec le temps — d’où le nom de loi sans vieillissement.
Piège classique : la propriété d’absence de mémoire ne signifie pas que \(P(X > s + t) = P(X > t)\). C’est la probabilité conditionnelle sachant \(\{X > s\}\) qui est égale à \(P(X > t)\). Sans le conditionnement, on a \(P(X > s + t) = P(X > s) \cdot P(X > t)\), ce qui est strictement plus petit que \(P(X > t)\).
B. Caractérisation : la seule loi continue sans mémoire
Le résultat suivant est remarquable : la propriété d’absence de mémoire caractérise entièrement la loi exponentielle parmi les lois continues à support positif.
Théorème — Caractérisation de la loi exponentielle
Soit \(X\) une variable aléatoire réelle continue, à valeurs dans \(\mathbb{R}_+\), vérifiant :
\(\displaystyle \forall \, s, t \geq 0, \quad P(X > s + t \mid X > s) = P(X > t)\)
Alors \(\exists \, \lambda\) > \(0\) tel que \(X \sim \mathcal{E}(\lambda)\).
Démonstration. Posons \(g(t) = P(X > t)\) pour \(t \geq 0\). La propriété d’absence de mémoire se réécrit :
\(\displaystyle \displaystyle\frac{g(s + t)}{g(s)} = g(t) \quad \Longleftrightarrow \quad g(s + t) = g(s) \cdot g(t) \qquad \forall \, s, t \geq 0\)
C’est l’équation fonctionnelle de Cauchy sur \(\mathbb{R}_+\). De plus, \(g\) vérifie :
- \(g(0) = P(X > 0) = 1\) (puisque \(X\) est continue, \(P(X = 0) = 0\))
- \(g\) est continue (car \(X\) est continue, donc \(F\) est continue)
- \(g\) est décroissante avec \(\lim_{t \to +\infty} g(t) = 0\)
Résolution de l’équation fonctionnelle. Posons \(c = g(1) \in \,]0 \,;\, 1[\).
Étape 1 — Entiers. Par récurrence, \(g(n) = g(1)^n = c^n\) pour tout \(n \in \mathbb{N}\).
Étape 2 — Rationnels. Pour \(q \in \mathbb{N}^*\), on a \(g\!\left(\displaystyle\frac{1}{q}\right)^q = g(1) = c\), donc \(g\!\left(\displaystyle\frac{1}{q}\right) = c^{1/q}\). Pour \(p \in \mathbb{N}\) : \(g\!\left(\displaystyle\frac{p}{q}\right) = c^{p/q}\).
Étape 3 — Réels. Par densité de \(\mathbb{Q}_+\) dans \(\mathbb{R}_+\) et continuité de \(g\) : \(g(t) = c^t\) pour tout \(t \geq 0\).
Conclusion. On pose \(\lambda = -\ln c\) > \(0\) (car \(0\) < \(c\) < \(1\)). Alors \(g(t) = e^{-\lambda t}\), ce qui donne \(F(t) = 1 – e^{-\lambda t}\) pour tout \(t \geq 0\) : c’est la fonction de répartition de \(\mathcal{E}(\lambda)\). ■
En résumé : la loi exponentielle est la seule loi continue vérifiant l’absence de mémoire. En discret, c’est la loi géométrique qui possède cette propriété (seule loi discrète sans mémoire).
La loi exponentielle est donc intrinsèquement liée à la modélisation de phénomènes où le taux d’occurrence est constant. Cette idée conduit naturellement au processus de Poisson.
IV. Loi exponentielle et autres distributions
A. Lien avec le processus de Poisson
Le résultat fondamental est le suivant : si des événements surviennent de manière aléatoire dans le temps à un taux constant \(\lambda\) (processus de Poisson), alors le temps entre deux événements consécutifs suit une loi \(\mathcal{E}(\lambda)\).
Théorème — Temps inter-arrivées d’un processus de Poisson
Soit \((N(t))_{t \geq 0}\) un processus de Poisson de paramètre \(\lambda\) > \(0\). Les temps inter-arrivées \(T_1, T_2, \ldots\) sont des variables aléatoires indépendantes de loi \(\mathcal{E}(\lambda)\).
En d’autres termes, la loi de Poisson et la loi exponentielle sont les deux faces d’un même phénomène :
- La loi de Poisson \(\mathcal{P}(\lambda t)\) compte le nombre d’événements dans un intervalle de temps \([0 \,;\, t]\).
- La loi exponentielle \(\mathcal{E}(\lambda)\) mesure la durée entre deux événements consécutifs.
Ce lien fait de la loi exponentielle le modèle probabiliste de la décroissance exponentielle : en physique, la désintégration radioactive suit la loi \(N(t) = N_0 \, e^{-\lambda t}\), qui relève des équations différentielles linéaires d’ordre 1. La loi exponentielle en est la traduction probabiliste.
B. Minimum de variables exponentielles indépendantes
Le résultat suivant est très utile en exercices de concours, notamment dans les problèmes de files d’attente.
Théorème — Minimum d’exponentielles indépendantes
Soient \(X_1, \ldots, X_n\) des variables aléatoires indépendantes avec \(X_i \sim \mathcal{E}(\lambda_i)\). Alors :
\(\displaystyle T = \min(X_1, \ldots, X_n) \sim \mathcal{E}(\lambda_1 + \cdots + \lambda_n)\)
Démonstration. Pour tout \(t \geq 0\) :
\(\displaystyle P(T > t) = P(X_1 > t, \ldots, X_n > t) = \prod_{i=1}^{n} P(X_i > t) = \prod_{i=1}^{n} e^{-\lambda_i t} = e^{-(\lambda_1 + \cdots + \lambda_n) t}\)
On reconnaît la fonction de survie de \(\mathcal{E}(\lambda_1 + \cdots + \lambda_n)\). ■
De plus, la probabilité que \(X_k\) réalise le minimum est :
\(\displaystyle P\!\left(X_k = \min_{1 \leq i \leq n} X_i\right) = \displaystyle\frac{\lambda_k}{\lambda_1 + \cdots + \lambda_n}\)
Ce résultat intervient fréquemment dans les problèmes de fiabilité (quel composant tombe en panne le premier ?) et de files d’attente (quel serveur termine en premier ?).
C. Simulation par inversion de la fonction de répartition
Pour simuler une variable \(X \sim \mathcal{E}(\lambda)\), on utilise la méthode de l’inverse :
Proposition — Simulation de \(\mathcal{E}(\lambda)\)
Soit \(U \sim \mathcal{U}([0 \,;\, 1])\) une variable aléatoire de loi uniforme. Alors :
\(\displaystyle X = -\displaystyle\frac{\ln(1 – U)}{\lambda} \sim \mathcal{E}(\lambda)\)
En pratique, puisque \(1 – U \sim \mathcal{U}([0 \,;\, 1])\), on utilise : \(X = -\displaystyle\frac{\ln U}{\lambda}\).
Démonstration. On inverse la fonction de répartition. Pour \(x \geq 0\) :
\(\displaystyle P(X \leq x) = P\!\left(-\displaystyle\frac{\ln U}{\lambda} \leq x\right) = P\!\left(\ln U \geq -\lambda x\right) = P\!\left(U \geq e^{-\lambda x}\right) = 1 – e^{-\lambda x}\) ■
Cette méthode est fondamentale en simulation numérique : tout générateur de nombres pseudo-aléatoires uniformes permet de produire des réalisations de loi exponentielle.
Maintenant que nous disposons de toutes les propriétés théoriques, passons à la méthodologie de résolution des exercices.
V. Méthode : résoudre un exercice sur la loi exponentielle
A. Reconnaître une situation exponentielle
Dans un énoncé, la loi exponentielle est la loi à utiliser dès que l’on modélise un temps d’attente à taux constant. Voici les indices typiques :
| Expression dans l’énoncé | Signification |
|---|---|
| « durée de vie » | Temps avant la panne d’un composant |
| « temps d’attente » | Temps entre deux événements |
| « sans vieillissement » / « sans mémoire » | Propriété caractéristique de \(\mathcal{E}(\lambda)\) |
| « taux de panne constant » | Le paramètre \(\lambda\) est fixé |
| « processus de Poisson » | Les temps inter-arrivées suivent \(\mathcal{E}(\lambda)\) |
| « décroissance exponentielle » | Modèle physique (radioactivité, RC…) |
B. Les étapes de résolution
Méthode en 4 étapes
- Identifier la variable aléatoire. « Soit \(X\) la durée de vie (en heures) du composant. »
- Poser la loi. « \(X \sim \mathcal{E}(\lambda)\) avec \(\lambda = \ldots\) » (déduire \(\lambda\) de l’espérance : \(\lambda = 1/E(X)\)).
- Exprimer l’événement en termes de \(X\). Traduire la question en \(P(X > t)\), \(P(a \leq X \leq b)\), \(P(X > s + t \mid X > s)\)…
- Calculer avec la fonction de survie. Utiliser \(P(X > t) = e^{-\lambda t}\) et \(P(a \leq X \leq b) = e^{-\lambda a} – e^{-\lambda b}\).
Attention à l’unité. Si l’énoncé donne un taux de \(3\) événements par heure, alors \(\lambda = 3\) h\(^{-1}\). Si on te demande la probabilité d’attendre plus de \(20\) minutes, convertis : \(t = 20/60 = 1/3\) heure, puis calcule \(P(X > 1/3) = e^{-3 \times 1/3} = e^{-1}\).
Appliquons maintenant ces techniques sur des exercices variés.
VI. Exercices corrigés
Voici 6 exercices classés par difficulté croissante, de l’application directe au problème type concours. Chaque correction est détaillée pas à pas.
Exercice 1 (★★★) — Minimum d’exponentielles et probabilité de classement
Soient \(X_1 \sim \mathcal{E}(3)\) et \(X_2 \sim \mathcal{E}(5)\) deux variables aléatoires indépendantes.
- Déterminer la loi de \(T = \min(X_1, X_2)\) et calculer \(E(T)\).
- Calculer \(P(X_1\) < \(X_2)\).
▶ Voir la correction
1. D’après le théorème sur le minimum d’exponentielles indépendantes :
\(\displaystyle T = \min(X_1, X_2) \sim \mathcal{E}(3 + 5) = \mathcal{E}(8)\)
D’où \(E(T) = \displaystyle\frac{1}{8}\).
2. On conditionne par la valeur de \(X_1\) :
\(\displaystyle P(X_1 \lt X_2) = \int_0^{+\infty} P(X_2 > x) \cdot f_{X_1}(x) \, dx = \int_0^{+\infty} e^{-5x} \cdot 3 \, e^{-3x} \, dx = 3 \int_0^{+\infty} e^{-8x} \, dx = \displaystyle\frac{3}{8}\)
On retrouve la formule générale : \(P(X_1\) < \(X_2) = \displaystyle\frac{\lambda_1}{\lambda_1 + \lambda_2} = \displaystyle\frac{3}{8}\).
Exercice 2 (★★★) — Processus de Poisson
Des bus arrivent à un arrêt selon un processus de Poisson de paramètre \(\lambda = 4\) bus par heure. Soit \(T\) le temps d’attente (en heures) avant le prochain bus.
- Justifier que \(T \sim \mathcal{E}(4)\).
- Calculer la probabilité d’attendre plus de \(30\) minutes.
- Un passager attend déjà depuis \(15\) minutes. Calculer la probabilité qu’il attende encore au moins \(15\) minutes.
▶ Voir la correction
1. Les bus arrivent selon un processus de Poisson de paramètre \(\lambda = 4\) bus/h. Le temps entre deux arrivées consécutives suit une loi \(\mathcal{E}(\lambda)\), donc \(T \sim \mathcal{E}(4)\).
2. On convertit : \(30\) minutes \(= 1/2\) heure.
\(\displaystyle P(T > 1/2) = e^{-4 \times 1/2} = e^{-2} \approx 0{,}135\)
Environ \(13{,}5\,\)% de probabilité d’attendre plus de \(30\) minutes.
3. Le passager attend depuis \(15\) min \(= 1/4\) h. Par absence de mémoire :
\(\displaystyle P(T > 1/2 \mid T > 1/4) = P(T > 1/4) = e^{-4 \times 1/4} = e^{-1} \approx 0{,}368\)
Malgré l’attente déjà écoulée, il reste \(36{,}8\,\)% de probabilité d’attendre encore \(15\) minutes.
Exercice 3 (★★★★) — Fonction génératrice des moments et moments
Soit \(X \sim \mathcal{E}(\lambda)\).
- Calculer \(M_X(t) = E(e^{tX})\) pour \(t\) < \(\lambda\).
- En déduire \(E(X)\) et \(E(X^2)\) par dérivation.
- Retrouver \(V(X)\).
▶ Voir la correction
1.
\(\displaystyle M_X(t) = \int_0^{+\infty} e^{tx} \, \lambda \, e^{-\lambda x} \, dx = \lambda \int_0^{+\infty} e^{-(\lambda – t)x} \, dx = \displaystyle\frac{\lambda}{\lambda – t}\)
L’intégrale converge car \(\lambda – t\) > \(0\).
2. On dérive :
\(\displaystyle M_X^\prime(t) = \displaystyle\frac{\lambda}{(\lambda – t)^2} \quad \Longrightarrow \quad E(X) = M_X^\prime(0) = \displaystyle\frac{\lambda}{\lambda^2} = \displaystyle\frac{1}{\lambda}\)
\(\displaystyle M_X^{\prime\prime}(t) = \displaystyle\frac{2\lambda}{(\lambda – t)^3} \quad \Longrightarrow \quad E(X^2) = M_X^{\prime\prime}(0) = \displaystyle\frac{2\lambda}{\lambda^3} = \displaystyle\frac{2}{\lambda^2}\)
3. \(V(X) = E(X^2) – E(X)^2 = \displaystyle\frac{2}{\lambda^2} – \displaystyle\frac{1}{\lambda^2} = \displaystyle\frac{1}{\lambda^2}\).
Exercice 4 (★★★★) — Densité d’une variable dont le carré suit une loi exponentielle
Soit \(X\) une variable aléatoire telle que \(X^2 \sim \mathcal{E}(\lambda)\). Déterminer la densité \(f_X\) de \(X\) si on la suppose de plus paire et continue sur \(\mathbb{R}\).
▶ Voir la correction
Puisque \(X\) admet une densité paire, \(f_X(-x) = f_X(x)\) pour tout \(x \in \mathbb{R}\). Par symétrie, \(P(X \leq 0) = \displaystyle\frac{1}{2}\).
Calcul de la fonction de répartition. Pour \(x \geq 0\) :
\(\displaystyle P(-x \leq X \leq x) = P(X^2 \leq x^2) = F_{X^2}(x^2) = 1 – e^{-\lambda x^2}\)
Par symétrie de la densité : \(P(-x \leq X \leq x) = 2 \, P(0 \leq X \leq x)\), d’où :
\(\displaystyle P(0 \leq X \leq x) = \displaystyle\frac{1 – e^{-\lambda x^2}}{2}\)
Ainsi, pour \(x \geq 0\) :
\(\displaystyle F_X(x) = P(X \leq 0) + P(0 \leq X \leq x) = \displaystyle\frac{1}{2} + \displaystyle\frac{1 – e^{-\lambda x^2}}{2} = 1 – \displaystyle\frac{e^{-\lambda x^2}}{2}\)
Dérivation. Pour \(x\) > \(0\) :
\(\displaystyle f_X(x) = F_X^\prime(x) = \lambda \, x \, e^{-\lambda x^2}\)
Et par symétrie \(f_X(-x) = f_X(x)\), d’où pour tout \(x \in \mathbb{R}\) :
\(\displaystyle f_X(x) = \lambda \, |x| \, e^{-\lambda x^2}\)
Vérification. On vérifie que c’est bien une densité :
\(\displaystyle \int_{-\infty}^{+\infty} \lambda \, |x| \, e^{-\lambda x^2} \, dx = 2 \int_0^{+\infty} \lambda \, x \, e^{-\lambda x^2} \, dx = 2 \left[-\displaystyle\frac{1}{2} \, e^{-\lambda x^2}\right]_0^{+\infty} = 2 \times \displaystyle\frac{1}{2} = 1\) ✓ ■
Exercice 5 (★★★★) — Loi exponentielle translatée \(\mathcal{E}(a,b)\)
Soient \(a \geq 0\) et \(b\) > \(0\). On considère la fonction \(f_{a,b}\) définie sur \(\mathbb{R}\) par :
\(\displaystyle f_{a,b}(x) = \begin{cases} \displaystyle\frac{1}{b} \, \exp\!\left(-\displaystyle\frac{x – a}{b}\right) & \text{si } x \geq a \\ 0 & \text{sinon} \end{cases}\)
On note \(\mathcal{E}(a,b)\) la loi associée et on considère \(X \sim \mathcal{E}(a,b)\).
- Vérifier que \(f_{a,b}\) est bien une densité de variable aléatoire.
- Déterminer la fonction de répartition de \(X\).
- On pose \(Y = X – a\). Déterminer la loi de \(Y\) et la reconnaître. En déduire \(E(X)\) et \(V(X)\).
- Soit \(U\) une variable aléatoire de loi uniforme sur \([0 \,;\, 1[\). Montrer que \(-b \ln(1 – U) + a\) suit la loi \(\mathcal{E}(a,b)\).
▶ Voir la correction
1. La fonction \(f_{a,b}\) est positive. On calcule son intégrale par le changement de variable \(u = \displaystyle\frac{x – a}{b}\) (donc \(dx = b \, du\)) :
\(\displaystyle \int_{-\infty}^{+\infty} f_{a,b}(x) \, dx = \int_a^{+\infty} \displaystyle\frac{1}{b} \, e^{-(x-a)/b} \, dx = \int_0^{+\infty} e^{-u} \, du = \left[-e^{-u}\right]_0^{+\infty} = 1\)
C’est bien une densité de probabilité. ■
2. Pour \(x\) < \(a\) : \(F(x) = 0\). Pour \(x \geq a\) :
\(\displaystyle F(x) = \int_a^{x} \displaystyle\frac{1}{b} \, e^{-(t-a)/b} \, dt = \left[-e^{-(t-a)/b}\right]_a^{x} = 1 – e^{-(x-a)/b}\)
3. Pour \(y \geq 0\) :
\(\displaystyle P(Y \leq y) = P(X – a \leq y) = P(X \leq y + a) = F(y + a) = 1 – e^{-y/b}\)
On reconnaît la fonction de répartition de \(\mathcal{E}(1/b)\). Donc \(Y = X – a \sim \mathcal{E}(1/b)\).
On en déduit :
\(\displaystyle E(Y) = b \quad \Longrightarrow \quad E(X) = a + b\)
\(\displaystyle V(Y) = b^2 \quad \Longrightarrow \quad V(X) = b^2\)
(La translation par \(a\) décale l’espérance mais ne modifie pas la variance.)
4. Posons \(W = -b \ln(1 – U) + a\). Pour \(x \geq a\) :
\(\displaystyle P(W \leq x) = P\!\left(-b \ln(1 – U) + a \leq x\right) = P\!\left(\ln(1 – U) \geq -\displaystyle\frac{x – a}{b}\right) = P\!\left(1 – U \geq e^{-(x-a)/b}\right)\)
\(\displaystyle = P\!\left(U \leq 1 – e^{-(x-a)/b}\right) = 1 – e^{-(x-a)/b}\)
On retrouve la fonction de répartition de \(\mathcal{E}(a,b)\), donc \(W \sim \mathcal{E}(a,b)\). ■
Exercice 6 (★★★★★) — Problème type concours : densité, transformations et taux de panne
On considère la fonction \(f\) définie sur \(\mathbb{R}\) par :
\(\displaystyle f(t) = \begin{cases} 2t \, e^{-t^2} & \text{si } t \geq 0 \\ 0 & \text{sinon} \end{cases}\)
- Montrer qu’il existe une variable aléatoire à densité \(T\) qui admet \(f\) pour densité.
- Déterminer la fonction de répartition de \(T\).
- Déterminer le réel \(\mu\), appelé médiane de \(T\), tel que \(P(T \leq \mu) = \displaystyle\frac{1}{2}\).
- Montrer que \(T\) admet une espérance et une variance et les déterminer.
- On pose \(Z = T^2\). Montrer que \(Z\) suit une loi usuelle que l’on déterminera.
- On s’intéresse à la durée de vie d’un appareil, modélisée par \(T\). Si l’appareil fonctionne toujours au bout de \(x\) heures, on note \(\Pi_x(h)\) la probabilité qu’il tombe en panne dans les \(h\) heures qui suivent. On appelle taux de panne à l’instant \(x\) le nombre \(\pi(x) = \Pi_x^\prime(0)\) s’il existe. Exprimer \(\Pi_x(h)\) à l’aide de la fonction de répartition, puis calculer le taux de panne \(\pi(x)\).
▶ Voir la correction
1. La fonction \(f\) est continue sur \(\mathbb{R}\) et positive. Il suffit de vérifier que son intégrale vaut \(1\) :
\(\displaystyle \int_0^{+\infty} 2t \, e^{-t^2} \, dt = \left[-e^{-t^2}\right]_0^{+\infty} = 0 – (-1) = 1\)
Donc \(f\) est bien une densité de probabilité. ■
2. Pour \(t\) < \(0\) : \(F(t) = 0\). Pour \(t \geq 0\) :
\(\displaystyle F(t) = \int_0^{t} 2s \, e^{-s^2} \, ds = \left[-e^{-s^2}\right]_0^{t} = 1 – e^{-t^2}\)
3. On résout \(F(\mu) = \displaystyle\frac{1}{2}\) :
\(\displaystyle 1 – e^{-\mu^2} = \displaystyle\frac{1}{2} \quad \Longleftrightarrow \quad e^{-\mu^2} = \displaystyle\frac{1}{2} \quad \Longleftrightarrow \quad \mu^2 = \ln 2 \quad \Longleftrightarrow \quad \mu = \sqrt{\ln 2}\)
4. Calcul de \(E(T)\). On calcule :
\(\displaystyle E(T) = \int_0^{+\infty} t \cdot 2t \, e^{-t^2} \, dt = 2 \int_0^{+\infty} t^2 \, e^{-t^2} \, dt\)
On reconnaît l’intégrale de Gauss généralisée \(\displaystyle\int_0^{+\infty} t^2 \, e^{-t^2} \, dt = \displaystyle\frac{\sqrt{\pi}}{4}\) (obtenue par intégration par parties ou par la formule \(\Gamma(3/2) = \sqrt{\pi}/2\)). D’où :
\(\displaystyle E(T) = 2 \times \displaystyle\frac{\sqrt{\pi}}{4} = \displaystyle\frac{\sqrt{\pi}}{2}\)
Calcul de \(E(T^2)\). On anticipe sur la question 5 : le résultat \(T^2 \sim \mathcal{E}(1)\) donne directement \(E(T^2) = 1\). Sinon, par calcul direct :
\(\displaystyle E(T^2) = \int_0^{+\infty} t^2 \cdot 2t \, e^{-t^2} \, dt = 2 \int_0^{+\infty} t^3 \, e^{-t^2} \, dt\)
Par le changement de variable \(u = t^2\) (donc \(t \, dt = du/2\)) :
\(\displaystyle E(T^2) = 2 \int_0^{+\infty} u \, e^{-u} \cdot \displaystyle\frac{du}{2} = \int_0^{+\infty} u \, e^{-u} \, du = \Gamma(2) = 1\)
Variance.
\(\displaystyle V(T) = E(T^2) – E(T)^2 = 1 – \displaystyle\frac{\pi}{4} = \displaystyle\frac{4 – \pi}{4}\)
5. Pour \(z \geq 0\) :
\(\displaystyle P(Z \leq z) = P(T^2 \leq z) = P(T \leq \sqrt{z}) = F(\sqrt{z}) = 1 – e^{-z}\)
On reconnaît la fonction de répartition de \(\mathcal{E}(1)\). Donc \(Z = T^2 \sim \mathcal{E}(1)\). ■
6. Par définition de la probabilité conditionnelle :
\(\displaystyle \Pi_x(h) = P(T \leq x + h \mid T > x) = \displaystyle\frac{P(x \lt T \leq x + h)}{P(T > x)} = \displaystyle\frac{F(x + h) – F(x)}{1 – F(x)}\)
Le taux de panne est \(\pi(x) = \Pi_x^\prime(0) = \lim_{h \to 0} \displaystyle\frac{\Pi_x(h)}{h}\). En remplaçant :
\(\displaystyle \pi(x) = \lim_{h \to 0} \displaystyle\frac{F(x+h) – F(x)}{h \cdot (1 – F(x))} = \displaystyle\frac{F^\prime(x)}{1 – F(x)} = \displaystyle\frac{f(x)}{1 – F(x)}\)
Application numérique :
\(\displaystyle \pi(x) = \displaystyle\frac{2x \, e^{-x^2}}{e^{-x^2}} = 2x\)
Le taux de panne \(\pi(x) = 2x\) est croissant : l’appareil vieillit, sa probabilité de panne augmente avec le temps. C’est le contraire de la loi exponentielle, pour laquelle \(\pi(x) = \lambda\) est constant (absence de vieillissement). ■
Ce que le correcteur attend (exercice 6) : la question 5 est le pivot du problème — le lien \(T^2 \sim \mathcal{E}(1)\) simplifie considérablement le calcul des moments. La question 6 fait le lien explicite avec la propriété d’absence de mémoire : contrairement à la loi exponentielle où \(\pi(x) = \lambda\) est constant, la densité \(f(t) = 2t \, e^{-t^2}\) produit un taux de panne croissant, traduisant un vieillissement effectif.
Tu veux t’entraîner davantage ? Retrouve nos exercices corrigés sur les variables aléatoires.
La fiche mémo loi exponentielle — tout le cours en 1 page
Densité, fonction de répartition, espérance, variance, absence de mémoire, minimum d’exponentielles, simulation : toutes les formules sur une seule fiche recto.
Idéale pour réviser la veille du concours ou du DS.
VII. Erreurs fréquentes et pièges classiques
Erreur 1 — Confondre \(\lambda\) et \(E(X)\).
❌ Copie fautive : « La durée de vie moyenne est \(100\) heures, donc \(\lambda = 100\). »
Diagnostic : \(\lambda\) est le taux, pas l’espérance. C’est l’inverse.
✅ Correction : « \(E(X) = 100\) heures, donc \(\lambda = 1/E(X) = 0{,}01\) h\(^{-1}\). »
Erreur 2 — Écrire \(P(X = a) \neq 0\) pour une loi continue.
❌ Copie fautive : « \(P(X = 3) = \lambda e^{-3\lambda}\). »
Diagnostic : la densité \(f(3)\) n’est pas une probabilité. Pour une variable continue, \(P(X = a) = 0\) pour tout \(a \in \mathbb{R}\).
✅ Correction : « On calcule \(P(X \leq 3) = 1 – e^{-3\lambda}\). »
Erreur 3 — Oublier le support \(x \geq 0\).
❌ Copie fautive : « \(P(-1 \leq X \leq 2) = F(2) – F(-1) = (1 – e^{-2\lambda}) – (1 – e^{\lambda})\). »
Diagnostic : la variable \(X \sim \mathcal{E}(\lambda)\) est à valeurs dans \([0,+\infty[\). On a \(F(-1) = 0\).
✅ Correction : « \(P(-1 \leq X \leq 2) = P(0 \leq X \leq 2) = F(2) – F(0) = 1 – e^{-2\lambda}\). »
Erreur 4 — Mauvaise application de l’absence de mémoire.
❌ Copie fautive : « Par absence de mémoire, \(P(X > 5) = P(X > 3) \cdot P(X > 2)\). »
Diagnostic : ce n’est pas l’absence de mémoire, c’est la décomposition \(P(X > s+t) = P(X > s) \cdot P(X > t)\) (conséquence algébrique de \(e^{-\lambda(s+t)} = e^{-\lambda s} \cdot e^{-\lambda t}\)). L’absence de mémoire est la propriété conditionnelle : \(P(X > s+t \mid X > s) = P(X > t)\). Les deux sont équivalentes mais la rédaction doit citer le conditionnement.
✅ Correction : « Par absence de mémoire : \(P(X > 5 \mid X > 3) = P(X > 2) = e^{-2\lambda}\). »
Erreur 5 — Erreur de signe dans la fonction de répartition.
❌ Copie fautive : « \(F(x) = e^{-\lambda x}\). »
Diagnostic : \(e^{-\lambda x}\) est la fonction de survie \(S(x) = P(X > x)\), pas la fonction de répartition.
✅ Correction : « \(F(x) = P(X \leq x) = 1 – e^{-\lambda x}\). »
VIII. Questions fréquentes
Qu'est-ce que la loi exponentielle en probabilité ?
La loi exponentielle de paramètre \(\lambda\) > \(0\), notée \(\mathcal{E}(\lambda)\), est une loi de probabilité continue dont la densité est \(f(x) = \lambda e^{-\lambda x}\) pour \(x \geq 0\). Elle modélise le temps d’attente entre deux événements indépendants survenant à un taux constant \(\lambda\). Son espérance vaut \(1/\lambda\) et sa variance \(1/\lambda^2\).
Quelle est la loi de probabilité sans vieillissement ?
La loi sans vieillissement (ou sans mémoire) est la loi exponentielle. Elle vérifie : \(P(X > s+t \mid X > s) = P(X > t)\). La probabilité de « survivre » encore \(t\) unités de temps ne dépend pas du temps \(s\) déjà écoulé. C’est la seule loi continue possédant cette propriété (la loi géométrique est son analogue discret).
Quelle est la différence entre la loi exponentielle et la loi de Poisson ?
Ce sont les deux faces d’un même phénomène. La loi de Poisson \(\mathcal{P}(\lambda t)\) est une loi discrète qui compte le nombre d’événements dans un intervalle de temps \([0 \,;\, t]\). La loi exponentielle \(\mathcal{E}(\lambda)\) est une loi continue qui mesure la durée entre deux événements consécutifs. Si les événements forment un processus de Poisson de taux \(\lambda\), les temps inter-arrivées suivent \(\mathcal{E}(\lambda)\).
Comment reconnaître qu'une variable suit une loi exponentielle ?
Cherche dans l’énoncé les indices suivants : « durée de vie », « temps d’attente », « sans vieillissement », « sans mémoire », « taux de panne constant », « processus de Poisson ». Si la variable modélise une durée positive et que le phénomène se produit à taux constant, la loi exponentielle est le bon modèle. Le paramètre \(\lambda\) est l’inverse de la durée moyenne : \(\lambda = 1/E(X)\).
Quelle est la différence entre la fonction exponentielle et la loi exponentielle ?
La fonction exponentielle \(x \mapsto e^x\) est une fonction mathématique. La loi exponentielle est une loi de probabilité dont la densité fait intervenir cette fonction : \(f(x) = \lambda e^{-\lambda x}\). L’une est un objet d’analyse, l’autre est un objet de probabilités. Elles partagent le même nom car la densité et la fonction de répartition s’expriment à l’aide de la fonction exponentielle.
La loi exponentielle est-elle au programme de Terminale ou de prépa ?
Les deux. En Terminale spécialité mathématiques, la loi exponentielle est au programme dans le thème « Lois à densité » : définition, espérance, variance, absence de mémoire. En CPGE (MPSI, PCSI, PTSI, MP2I), on approfondit avec les démonstrations, la fonction génératrice des moments, le lien avec le processus de Poisson, et les propriétés du minimum d’exponentielles indépendantes. Les résultats marqués ⋆ sont exigibles en concours.
Pour aller plus loin
Tu maîtrises maintenant la loi exponentielle : définition, propriétés démontrées, caractérisation par l’absence de mémoire, liens avec les autres distributions et méthode de résolution. Pour approfondir tes connaissances en probabilités :
- Variable aléatoire : cours complet — vue d’ensemble du chapitre
- Loi de Poisson : cours et propriétés — le complément naturel (nombre d’événements vs temps d’attente)
- Loi normale : cours et propriétés — la distribution la plus importante en statistique
- Loi uniforme : discrète, continue, propriétés — le point de départ de la simulation
- Fonction de répartition et densité de probabilité — les fondations théoriques
- Exercices variables aléatoires corrigés — pour t’entraîner sur l’ensemble du chapitre
![Densité de la loi exponentielle pour trois valeurs de λ. Tracer f(x) = λe^{-λx} sur [0, 6] pour λ = 0.5 (bleu #1f4acc, t](https://www.excellence-maths.fr/wp-content/uploads/2026/03/densite_loi_exponentielle.png)
![Fonction de répartition de la loi exponentielle pour trois valeurs de λ. Tracer F(x) = 1 − e^{-λx} sur [0, 6] pour λ = 0](https://www.excellence-maths.fr/wp-content/uploads/2026/03/repartition_loi_exponentielle.png)